<div dir="ltr">Hi,<div><br></div><div>I implemented a function to count how many steps it takes for a number to be reduced to 1 using the Collatz Conjecture (also known as the 3n + 1 problem) and I was very surprised to see it working instantaneously for integers as big as 10^100000.</div><div><br></div><div>The said function:</div><div><pre style="color:rgb(0,0,0)">collatzSteps :: Integer -> Integer
collatzSteps n = steps 1 n
    where steps acc 1 = acc
          steps acc n' | even n' = steps (acc+1) (n' `div` 2)
          steps acc n'           = steps (acc+1) (n' * 3 + 1)</pre></div><div><br></div><div>You can try in GHCi (apparently with an upper limit of 10^199669):</div><div><pre style="color:rgb(0,0,0)">GHCi> collatzSteps 10^199668
[big num...]
GHCi> length $ show $ collatzSteps 10^199668
168740 
GHCi> collatzSteps 10^199669 -- Oops
[1]    36128 bus error  ghci</pre></div><div><br></div><div>Notice the number 168740: it is the number of <b>digits</b> for the number of steps. It implies that the `acc` is ~= <b>10^168740</b> when the function ends. Without optimisation at some point, it would mean there were as much (acc+1) calls ! My understanding completely stops there; I can't comprehend why a function that shouldn't return anything even long after the end of the universe just finished before my eyes.</div><div><br></div><div>Can someone shed some light on how this peculiar function was optimised by GHC?</div><div><br></div><div>Many thanks,</div><div>(still dazed) Romain</div></div>