首页 > 代码库 > 计算理论的重大突破,无限深度递归
计算理论的重大突破,无限深度递归
目前无论是Lisp还是Javascript(C++就更不用说了),递归深度都远远低于可用内存大小,而且栈一旦分配就无法挪动(有指针似乎无解),这个问题的根源在于call指令会把下一指令的地址入栈。我经过几年的思考终于发现,可以把C++的内存模型完全放在堆上,也就是说进行call之前先new出调用函数所需要的空间,而把返回地址作为参数传递进去。这样就从根源上解决了此问题,那什么尾递归就是个渣,完全没有通用性。还有个好处就是程序长时间运行可以合并大量零碎内存。
比较有意思的评论:
call 需要调用 new,new 本身就是个函数调用,那逻辑上岂不是无限递归了。
还有有几个脑残Lisp会显式限制递归深度的。yinwang都噗了几遍“栈”了你咋还不长进。R.K.Dybvig反倒是前在一篇dissertation指出在他之前Scheme实现还都没直接用你所谓的栈的。
计算理论的重大突破,无限深度递归
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。