Python 之父撰文回忆:为什么要创造 pgen 解析器?
花下猫语: 近日,python 之父在 medium 上开通了博客,并发布了一篇关于 peg 解析器的文章(参见我翻的 全文译文)。据我所知,他有自己的博客,为什么还会跑去 medium 上写文呢?好奇之下,我就打开了他的老博客。
最后一篇文章写于 2018 年 5 月,好巧不巧,写的竟是 pgen 解析器,正是他在新文中无情地吐槽的、说将要替换掉的 pgen 。在这篇旧文里,guido 回忆了他创造 pgen 时的一些考量,在当时看来,创造一个新的解析器无疑是明智的,只不过时过境迁,现在有了更好的选择罢了。
前不久,我们聊过 python 中 gil 的移除计划、内置电池的“手术”计划 以及 print 的演变故事,如今,它的解析器也要迎来改造了。python 这门语言快 30 岁了,还难得地保持着活力四射。就让我们一起祝福它吧,愿未来更加美好。
本文原创并首发于公众号【python猫】,未经授权,请勿转载。
原文地址:https://mp.weixin.qq.com/s/oviiw7zmxjm4qustgdk7kq
原题 | the origins of pgen
作者 | guido van rossum(python之父)
译者 | 豌豆花下猫(“python猫”公众号作者)
原文 |
声明 | 翻译是出于交流学习的目的,欢迎转载,但请保留本文出处,请勿用于商业或非法用途。
david beazley 在 us pycon 2018 上的演讲,关于语法分析生成器(parser generators),提醒了我应该写一下关于它的历史。这是一个简短的脑转储(也许我今后会解释它)。
(译注:我大胆揣测一下“脑转储”吧,应该说的是,把个人的记忆以及 python 的历史细节,转化成文字,这是个存储固化的过程,方便传承。而我做的翻译工作,就是把这份文档财富,普及给更多的 python 爱好者。)
实际上,有两个 pgen,一个是最初的,用 c 语言写的,还有一个则是用 python 重写的,在 lib2to3/pgen2 下面。
两个都是我写的。最早那个实际上是我为 python 编写的第一份代码。尽管从技术上讲,我必须首先编写词法分析程序(lexer)(pgen 和 python 共用词法分析程序,但 pgen 对大多数标记符不起作用)。
之所以我要写自己的语法分析生成器,原因是当时这玩意(我熟悉的)相当稀少——基本上就是用 yacc(有个 gnu 的重写版,叫作 bison(译注:美洲野牛),但我不确定那时的自己是否知道);或者是自己手写一个(这是大多数人所做的)。
我曾在大学里用过 yacc,从“龙书”中熟悉了它的工作原理,但是出于某些原因,我并不喜欢它;iirc 关于 lalr(1) 语法的局限性,我很难解释清楚。
(译注:1、龙书,原文是 dragon book,指代《compilers: principles, techniques, and tools》,这是一本讲编译原理的书,属于编译原理界的殿堂级存在。另外还有两本经典著作,称号分别是“虎书”、“鲸书”,三者常常一起出现。2、iirc,if i remember correctly,如果我没记错。)
我也熟悉 ll(1) 解析器,并已认真地编写过一些递归下降的 ll(1) 解析器——我很喜欢它,而且还熟悉 ll(1) 解析器的生成技术(同样是因为龙书),所以我有了一个改进念头想要试验下:使用正则表达式(某种程度的)而不是标准的 bnf 格式。
龙书还教会了我如何将正则表达式转换成 dfa,所以我把所有这些东西一结合,pgen 就诞生了。【更新:请参阅下文,对于这个理由,有个略微不同的版本。】
我曾不熟悉更高级的技术,或者曾认为它们效率太低。(在当时,我觉得工作在解析器上的大多数人都是这样。)
至于词法分析器(lexer),我决定不使用生成器——我对 lex 的评价要比 yacc 低得多,因为在尝试扫描超过 255 个字节的标记符时,我所熟悉的 lex 版本会发生段错误(真实的!)。此外,我认为缩进格式很难教给词法分析器生成器。
(译注:1、这里的生成器并不是 python 语法中的生成器,而是指用来生成分析器的工具。lex 是“lexical compiler”的简称,用来生成词法分析器;yacc 是“yet another compiler compiler”的简称,用来生成语法分析器。2、段错误,原文是 segfault,全称是 segmentation fault,指的是因为越界访问内存空间而导致的报错。)
pgen2 的故事则完全不同。
我曾受雇于 san mateo 的一家创业公司(即 elemental security,倒闭于 2007,之后我离开并加入了 google),在那我有一项设计定制语言的任务(目标是作关于系统配置的安全性判定),并拥有相当大的自主权。
我决定设计一些稍微像 python 的东西,用 python 来实现,并且决定要重用 pgen,但是后端要基于 python,使用 tokenize.py 作为词法分析器。所以我用 python 重写了 pgen 里的那些算法,然后继续构建了剩余的部分。
管理层觉得把工具开源是有意义的,因此他们很快就批准了,而在不久之后(我当时很可能已经转移到 google 了?),这工具对于 2to3 也是有意义的。(因为输入格式跟原始的 pgen 相同,用它来生成一个 python 解析器很容易——我只需将语法文件喂给工具。:-)
更新:创建 pgen 的原因,还有更多故事
我不完全记得为什么要这样做了,但我刚刚偷看了https://en.wikipedia.org/wiki/ll_parser#conflicts,我可能觉得这是一种新的(对我而言)不通过添加帮助性的规则而解决冲突的方式。
例如,该网页所称的的左分解(将 a -> x | x y z 替换成 a -> x b; b -> y z | <empty>),我会重写成 a -> x [y z]。
如果我没记错,通过“正则表达式 -> nfa -> dfa”的转换过程,解析引擎(该网页中前面的 syntacticanalysis 函数)依然可以工作在由这些规则所派生的解析表上;我认为这里需要有不出现空白产物的诉求。(译注:“空白产物”,原文是 empty productions,对应的是前文的 <empty>,指的是不必要出现 empty。)
我还想起一点,由解析引擎生成的解析树节点可能有很多子节点,例如,对于上面的规则 a -> x [y z],节点 a 可能有 1 个子节点(x)或者 3 个(x y z)。代码生成器中就需要有一个简单的检查,来确定它遇到的是哪一种可能的情况。(这已经被证明是一把双刃剑,后来我们添加了一个由单独的生成器所驱动的“解析树 -> ast”步骤,以简化字节码生成器。)
所以我使用正则表达式的原因,很可能是为了使语法更易于阅读:在使用了必要的重写以解决冲突之后,我发现语法不是那么可读(此处应插入《python 之禅》的说法 :-) ,而正则表达式则更符合我对于经典语言的语法的看法(除了起着奇怪名字的帮助规则、[optional] 部分以及 * 号重复的部分)。
正则表达式没有提高 ll(1) 的能力,更没有降低它的能力。当然了,所谓“正则表达式”,我想说的其实是 ebnf ——我不确定 “ebnf” 在当时是否是一个被明确定义了的符号,它可能就指对 bnf 的任意扩展。
假如将 ebnf 转换为 bnf,再去使用它,将会导致尴尬的多解析树节点问题,所以我不认为这会是一种改进。
如果让我重做一遍,我可能会选择一个更强大的解析引擎,可能是 lalr(1) 的某个版本(例如 yacc/bison)。lalr(1) 的某些地方要比 ll(1) 更给力,也更加有用,例如,关键字参数。
在 ll(1) 中,规则 “arg: [name =] expr” 无效,因为 name 出现在了表达式的第一组里(first-set),而 ll(1) 算法没法处理这样的写法。
如果我没记错,lalr(1) 则可以处理它。但是,在我写完 pgen 的第一个版本的好些年之后,关键字参数写法才出现,那时候我已不想重做解析器了。
2019 年 3 月更新: python 3.8 将删除 pgen 的 c 版本,转而使用重写的 pgen2 版本。请参阅
(译注:感觉可以帮 guido 再加一条“更新”了,目前他正在研究 peg 解析器,将会作为 pgen 的替代。详情请看《python之父新发文,将替换现有解析器》)
公众号【python猫】, 本号连载优质的系列文章,有喵星哲学猫系列、python进阶系列、好书推荐系列、技术写作、优质英文推荐与翻译等等,欢迎关注哦。