>>> 999999999 * math.log(999999999, 2) / 8 / 1024 ** 3
3.480509950621777
所以這個數字本身就差不多需要3.5GB內存,考慮到計算過程中需要存儲臨時結果,還需要翻個兩三倍吧
而Python中的long可以到多少呢:
#define MAX_LONG_DIGITS \
((PY_SSIZE_T_MAX - offsetof(PyLongObject, ob_digit))/sizeof(digit))
offsetof算出來的是對象頭大小,很小,digit是表示數字的每個“位”的字節數,其實就是這個數字存放的數組的元素大小,比如unsigned short,單純看內存的話,可以大概到PY_SSIZE_T_MAX這個級別,這個數字是C的size_t的最大值除以二,若在64bit環境下,怎么看都夠用了
但是呢,這個數字算出來你只需要內存和時間就好,但是打印出來就是另回事了,因為還要轉為10進制,這時候光是算出來的字符串消耗的內存就是:
>>> 999999999 * math.log(999999999, 10) / 1024 ** 3
8.381903162752934
而且這個計算過程是非常慢的,數字轉10進制需要O(N)次除法,每次O(N)。。。基本你是等不了的
當然,你也可以自己實現一個用10的冪的進制的形式存儲的大數算法,不過用純python搞這事,內存消耗也是很大的
===================
補充:實際上,就算只是計算一下這個算式,也是很慢的,你可以自己試一下在命令行敲入:
a = 999999999 ** 999999999
只計算不輸出,理論上如果你機器有個16G內存也是能算完的,但是,你打開win的任務管理器或者linux的top就可以看到,內存漲的其實還是蠻慢的,雖然Python在計算long的乘方用了快速冪(這個式子只需要幾十次乘法),以及大數相乘用的那個O(N^1.58)的分治算法,但是數字比較大的時候后者還是非常慢的
[xt@mac: ~ $] time python -c 'a = 9999; a ** a'
real0m0.037s
user0m0.015s
sys0m0.018s
[xt@mac: ~ $] time python -c 'a = 99999; a ** a'
real0m0.128s
user0m0.105s
sys0m0.019s
[xt@mac: ~ $] time python -c 'a = 999999; a ** a'
real0m4.704s
user0m4.671s
sys0m0.028s
[xt@mac: ~ $]
這個增長速度。。。大致你就認為沒法算出來吧