版块   财经观察   洪永淼、汪寿阳:大数据革命和经济学研究范式与研究方法
返回列表
查看: 1532|回复: 0
收起左侧

洪永淼、汪寿阳:大数据革命和经济学研究范式与研究方法

[复制链接]

6万

主题

6万

帖子

285万

积分

责任编辑

Rank: 8Rank: 8

积分
2850104

优秀版主

QQ
发表于 2021-3-31 09:36:34 | 显示全部楼层 |阅读模式

马上注册入会,结交专家名流,享受贵宾待遇,让事业生活双赢。

您需要 登录 才可以下载或查看,没有帐号?立即注册 手机动态码快速登录

x

洪永淼 汪寿阳(中国科学院数学与系统科学研究院)

  一、引言
  在中国,经常听到需要重视经济学思想,应该说这一点如何强调都不为过,但经济学研究除了思想外,还需要方法来提出解决问题的方案,才能形成完整的理论体系。因此,在经济学研究中,方法与思想同等重要(洪永淼、汪寿阳,2020)。由于历史原因,中国经济学研究曾在相当长一段时期内一直以定性分析为主,而现代西方经济学以定量分析为主,特别是过去 40 年来形成了以基于数据的定量实证研究为主的研究范式,这就是现代经济学所谓的“实证革命”(empirical revolution)或“可信性革命”(creditability revolution)。改革开放以来,中国经济学在定量实证分析上取得了长足的进步,这一点只要翻开《经济研究》和《管理世界》等国内经济学、管理学等顶尖期刊所发表的学术论文即有深刻的感受。中国经济学以研究中国特色社会主义市场经济运行与发展规律为主要内容,其根本任务是构造中国经济学原创性理论,这一点在国内经济学家中已形成普遍共识。但是,中国经济学的研究范式创新、研究方法创新还有待改进。从这个意义上说,对于中国经济学研究,有时方法比思想可能还更重要,因为中国经济学家能够识别重要的经济问题,但在向国际学术同行讲述中国经济故事时所采用的方式、方法常有欠缺,导致中国经济学的国际学术影响力还比较弱小。另一方面,我们正处于大数据时代,大数据革命正在深刻地影响现代经济学的研究范式和研究方法,推动定性分析转化为定量分析,特别是不断创新以数据为基础的定量实证分析方法。大数据也正在拓展经济学研究的范畴和边界,推动经济学不仅与自然科学交叉融合,而且与人文社会科学其他学科互相渗透,这也必将促进经济学与人文社会科学的不断融合。
  本文的主要目的是讨论在数字经济时代,大数据和机器学习对经济学的研究范式和研究方法的影响,特别是所带来的机遇和挑战。我们将首先介绍经济学研究范式的历史演变,特别是过去 40 年现代经济学“实证革命”的重要意义,并通过收入不平等研究和反贫困研究两个案例说明研究范式和研究方法对经济理论创新的重要性,然后重点探讨大数据和机器学习对经济学研究范式和研究方法的影响,我们聚焦以下四个领域:一是大数据特别是文本数据创新了文本回归(textual regression)的研究范式,将人文社会因素,如心理情感、政治法律、历史文化、生态环境、卫生健康等与经济的互动关系纳入一个统一的定量实证分析框架中。所谓文本回归分析,是指基于大数据特别是文本数据构建经济人文变量,然后运用计量经济学理论与方法,研究经济与人文因素之间的逻辑关系,特别是因果关系。二是大数据带来很多新型数据,如文本数据、图形数据、音频数据等非结构化数据,以及区间数据(interval-valueddata)、符号数据(symbolic data)和函数数据(functional data)等,这些新型数据呼唤创新计量经济学模型与方法。例如,区间数据比点数据(point-valued data)包含的信息多,但长期没有得到有效利用。区间计量经济学模型可用于经济金融变量区间预测和宏观经济区间管理。三是机器学习作为人工智能方法的一个主要方法,可用于精准识别因果关系和定量评估公共经济政策,以更好发挥政府作用。四是机器学习的正则性(regularization)原理可用来简化高维甚至超高维计量经济学模型,通过有效降维,帮助识别重要解释变量或预测变量,提升计量经济学模型的可解释性、统计推断效率和样本外预测能力。
  二、经济学研究范式的历史演变
  作为一门历史科学,经济学的研究范式随着时代的发展而不断变化。洪永淼、汪寿阳(2020)已对经济学研究范式的发展做了简要探讨,这里进一步展开,以更全面地反映研究范式演变的全貌。1776 年亚当·斯密的《国富论》的发表,标志着经济学作为一门独立的学科正式诞生。亚当·斯密以经济增长为主题,运用历史方法和逻辑方法,论证自由竞争的资本主义经济制度能够比封建经济制度创造出更大的生产力。亚当·斯密使用了很多案例分析,这是实证研究的一个最基本方法(Smith,1776)。九十年后,马克思(Marx,1867)的《资本论》第一卷于 1867 年出版。马克思运用历史唯物主义和辩证唯物主义的分析方法,揭示了资本主义经济制度下资本和劳动的矛盾与对立,以及资本主义历史发展的规律。与《资本论》第一卷的出版相差不到十年,19 世纪 70 年代西方经济学出现了所谓的“边际革命”(marginal revolution),代表人物包括杰文斯(Jevons,1871)、瓦尔拉斯(Walras,1874)和门格尔(Menger,1871)等。“边际革命”通过效用函数将心理因素引入经济学的分析框架,解释需求函数和供需关系,特别是稀缺资源的有效配置问题,而边际概念的引进,也为数学(微积分)在经济学的广泛应用打开了一扇大门,推动了现代经济学定量分析方法的发展,为新古典经济学的形成奠定了重要的方法论基础,也为以后实验经济学和行为经济学研究心理因素对经济主体行为的影响奠定了理论基础。
20 世纪 30 年代大萧条后的“凯恩斯革命”(Keynesian revolution),开辟了以现实问题为导向的宏观经济学总量分析的研究范式,通过分析宏观经济统计变量(如 GDP、通货膨胀率、失业率、利率)之间的数量关系,寻找解释失业、有效需求不足等现实经济问题以及解决方法。凯恩斯也因此被称为“宏观经济学之父”,其《就业、利息和货币通论》出版的时间(Keynes,1936),与计量经济学这一学科诞生的时间(1930 年)基本一致。计量经济学是经济学实证研究的最主要方法论,与凯恩斯以问题为导向的宏观经济总量分析的研究范式相辅相成。可以说,凯恩斯革命开辟了计量经济学作为经济学实证研究最主要方法论的广阔发展与应用空间。事实上,早期的计量经济学理论与方法大多以宏观计量经济学模型为研究对象,这一传统一直延续到今天宏观经济学中基于动态随机一般均衡模型的实证研究,这从标准的计量经济学教科书中可清楚看到。当然,经过近百年的发展,现代计量经济学现在不但有宏观计量经济学,还包括微观计量经济学等很多分支,而且发展非常迅速。
  到了 20 世纪五六十年代,新古典综合(new classical synthesis)理论将新古典经济学(微观经济学)和凯恩斯经济学(宏观经济学)有机融合,并通过理性经济人这一新古典经济学的基本假设和严谨的数学推导,建立了体系化的现代经济学理论。这方面的一个典型案例是阿罗和德布鲁(Arrow and Debreu,1954),他们运用数学的不动点定理(fixed point theorem),证明一般均衡市场存在的可能性,从而在八十年后完成瓦尔拉斯在 1874 年最早提出的一般均衡论的理论证明。新古典综合理论后来发展为理性预期学派和动态随机一般均衡理论,成为现代宏观经济学的理论基础,而原来作为应用数学一个分支的博弈论则成为微观经济学的理论基础,并且与信息不对称、非完全理性等偏离经济学理想状态的假设结合在一起,推动信息经济学、行为经济学(包括行为金融学)和实验经济学等学科的兴起与发展。
  20 世纪 80 年代以来,由于计算机技术与运算速度的不断进步,以及经济数据的可获得性,经济学研究逐步转变为以计量经济学和实验经济学为主要方法的实证分析,不是通过数学推导,而是基于观测数据和实验数据推断现实经济中经济变量之间的逻辑关系,特别是因果关系,并验证经济理论或经济假说解释现实经济现象的能力。这就是现代经济学新的范式革命,即所谓的“实证革命”(empirical revolution)。Angrist et al.(2017)发现,在 1980-2015 年,国际顶尖和主流经济学期刊以数据为基础的实证研究论文数量从不到 35% 上升到 55% 左右。经济学之所以会出现“实证革命”,主要是因为它符合科学研究范式。所谓科学研究范式主要是指科学工作者提出的任何理论或者假说都需要用经验(数据)验证(关于研究范式的讨论,参见 Kuhn(2012))。这种研究范式最早来自自然科学的实验研究,经济学家将之引入经济学研究,并在方法论上进行创新,使之更符合经济学研究所基于的前提假设和数据特征。以因果关系研究为例,几年前中国经济学家对产业政策是否有效争论得非常激烈。这种学术争论是十分有益的,同时,基于经济观测数据对产业政策效应进行量化评估,也可提供重要的证据与洞见,有助于精准施策。众所周知,除了产业政策外,影响经济的因素很多,这些因素有的可观测,有的不可观测。产业政策评估就是控制其他因素不变,聚焦产业政策变化是否会导致经济结果的变化。如果经济结果发生变化,说明产业政策与经济结果之间存在因果关系;反之,产业政策与经济结果之间就不存在因果关系。虽然经济理论从逻辑上可推出在一定条件下产业政策是否会影响经济结果,但这种理论推测都是建立在一系列前提假设的基础之上,因此需要经验验证,才能真正成为一种可以解释现实和预测未来的经济理论。由于现实经济环境与条件经常发生变化,任何经济理论都需要经常接受经验检验,才能用于指导经济实践。如果一个理论不能解释新的经济现象,那就需要进行理论创新。
  因果分析最重要的假设前提是保持其他变量不变。新古典经济学代表人物马歇尔的“局部均衡”分析方法像一种基于思想实验的因果分析方法,但因果关系最终需要通过经验(数据)验证。在自然科学中,控制其他因素不变相对比较简单,可以通过可控实验实现,但对于经济学乃至社会科学来说,其数据多为观测数据,并非通过可控实验获得。经济系统的这种非实验性特点对因果分析带来巨大挑战,也正因如此,计量经济学和实验经济学在过去 40 年发展了很多因果分析方法,如实验经济学(Experimental Economics)、随机控制实验(Randomized Controlled Trials,RCT)、自然实验(Natural Experiment)、观测方法(Observational Method)、结构模型(Structural Models)等。这些实证方法是不同学科特别是文理学科交叉的结果,已广泛应用于经济学、管理学、心理学、政治学、社会学、历史学、医学、生物统计学等学科。
  前面提到,马克思的《资本论》的主要分析方法是历史唯物主义和辩证唯物主义,《资本论》也使用一些数学工具和案例分析方法,但马克思在《资本论》中并没有使用以数据为基础的定量实证研究方法。日本马克思主义经济史学家守健二曾专门研究马克思关于《资本论》的写作史,他在 2019 年的一段采访中提到,马克思在写《资本论》时做了大量读书笔记,其考察资本主义经济危机的笔记称为《危机笔记》。守健二说:“在《危机笔记》中,马克思自己绘制了多个时间顺序表,并且将每天或每周从报纸和刊物上摘录的数据填写在上面。虽然有一部分表格并没有填写完整,还留有部分空白,但是他原本想进行经验数据分析的意图是不可否认的。此外,他还编制了关于股票价格、公共债券价格、汇率和商品价格的时间顺序表。特别是在马克思自行编制的 31份表格中,有 11 份表格显示了主要原料价格每周或每年变动的数据,涵盖了《经济学人》(The Economist)杂志的商品清单中列出的超过 400 项的商品。很明显,他是想要考察这些商品的价格随着危机的爆发究竟是如何下降的。”从守健二的访谈中可以看出,马克思的《资本论》虽然没有基于数据的定量实证研究,但他事实上做了这方面的准备工作,只是那个时代没有计算机,连数据都需要他本人手工收集编制,进行定量实证研究的难度可想而知。因此,我们不能将马克思时代以定性分析为主的研究方法与现在的以定量分析为主的研究方法对立起来。以哪种分析方法为主,其实不仅与学科发展的阶段密切相关,也受到时代背景的制约。下文我们将看到,在大数据时代,定性分析可以转化为定量分析,两者可以有机融合。
  在大数据时代,以互联网和移动互联网为基础的经济活动,包括生产、交换、分配与消费,催生了一个新的经济形态,即数字经济。几乎所有经济活动都会留下痕迹,这些痕迹就是实时或几乎实时产生的各种形式的大数据。这些大数据反过来会驱动各种经济活动,数据已经成为关键的生产要素。《经济学人》杂志曾提出一个新的 GDP 概念,即数据生产总值(Gross DataProduct),用来测度数字经济时代一个国家或地区的数据财富大概有多少,或者说数据资本有多大。大数据和人工智能(特别是机器学习)技术正在改变人类的生产与生活方式,同时也正在改变经济学的研究对象、研究范式与研究方法。大数据为经济学研究提供了大量丰富的故事和素材。经济学研究的主要目的是透过各种复杂的经济现象去揭示经济运行和发展规律。在数字经济时代,几乎所有的经济现象都可用大数据来描述。这就要求对海量大数据进行由表及里的深入系统的定量实证分析,从中揭示经济系统的本质特征与本质联系,特别是经济变量之间的因果关系。因果关系在经济学研究中占有中心地位,因为因果关系是任何经济理论具有多大解释力的决定性因素。
  2016 年 5 月 17 日,习近平总书记在哲学社会科学工作座谈会上指出:“对现代社会科学积累的有益知识体系,运用的模型推演、数量分析等有效手段,我们也可以用,而且应该好好用。需要注意的是,在采用这些知识和方法时不要忘了老祖宗,不要失去了科学判断力。马克思写的《资本论》、列宁写的《帝国主义论》、毛泽东同志写的系列农村调查报告等著作,都运用了大量统计数据和田野调查材料。”习近平总书记这里提到的模型推演、数量分析、统计数据和田野调查等方法与手段,与现代经济学的定量实证研究方法特别是因果推断方法是一致的。我们应该坚持问题导向,坚持思想与方法并重,坚持定性分析与定量分析相结合,并批判性地借鉴国外一切有益的理论成果和分析方法,提高中国经济学的研究水平与研究质量。
  三、经济学研究范式和研究方法的重要性
  对于经济学来说,任何研究的学术价值主要取决于两个因素,一是研究的科学问题,一是解决问题的方法。科学问题的重要性取决于思想的原创性和新颖性,而解决问题的关键是方法,这决定可能获得什么样的新发现与新洞见。思想和方法相辅相成,缺一不可(洪永淼、汪寿阳,2020)。很多情形表明,中国经济学家在构建中国经济学原创性理论时,迫切需要创新既符合科学研究范式又适合中国情景的分析方法。在下文讨论中,我们以两个经济学研究案例详细说明方法在构建原创性经济理论中的重要性。
  (一)收入不平等与托马斯 · 皮凯蒂的《21 世纪资本论》
  中国政府将共同富裕视为社会主义的一个本质特征。收入分配一直是全球经济学家长期关注的一个重要问题。马克思在《资本论》中以剩余劳动价值论为基础,运用历史唯物主义和辩证唯物主义方法,揭示资本主义经济制度下资本与劳动的对立与矛盾,特别是劳动收入占比日益下降的历史趋势。中国经济学家对马克思的《资本论》非常熟悉,也注意到改革开放以来中国经济在快速发展的同时,不同社会群体和不同地区的收入不平等也日益扩大,因此收入不平等一直是中国经济学家关注的一个重要问题,一些中国经济学家在这个研究领域做出了重要的学术贡献(李实等,2013)。
  进入 21 世纪以来,法国经济学家托马斯·皮凯蒂(Thomas Piketty)及其合作者用翔实的历史数据刻画了全世界主要国家日益扩大的收入与财富不平等现象,这是 10 年来现代经济学最有影响的定量实证研究之一。2013 年,皮凯蒂(Piketty,2013)的《21 世纪资本论》法语版出版,该书通过估算近 300 年来多个国家的资本与劳动收入占比,发现进入 21 世纪以来,收入与分配不平等呈现与 19 世纪马克思所处的那个时代相似的两极分化情形。该结论验证了马克思的《资本论》所揭示的资本主义经济中资本和劳动日益尖锐的对立与矛盾,也冲击了西方主流经济学关于社会收入和财富分配将随着经济的充分发展而逐步趋于平等的观点,特别是诺贝尔经济学奖得主西蒙·库兹涅茨(SimonKuznets)的“倒 U 型曲线理论”。习近平总书记在哲学社会科学工作座谈会“5·17”讲话中这样评价皮凯蒂的《21 世纪资本论》:“该书用翔实的数据证明,美国等西方国家的不平等程度已经达到或超过了历史最高水平,认为不加制约的资本主义加剧了财富不平等现象,而且将继续恶化下去。作者的分析主要是从分配领域进行的,没有过多涉及更根本的所有制问题,但使用的方法、得出的结论值得深思。”
  为了研究收入不平等现象,皮凯蒂整合了包括国民收入账户数据、微观调查数据、税收数据、商业银行报告在内的各种数据,对收入与财富分配进行跨国比较分析。整合数据特别是跨国历史数据本身是一项艰辛的工作,这是实证研究的基础。数据的质量直接影响研究的质量甚至结论。皮凯蒂对于实证方法论的一个贡献是针对基尼系数的缺陷,主张采用分配表分析收入不平等问题。所谓基尼系数,是意大利统计学家与社会学家基尼(Gini,1912)提出用以测度一个经济体或一个社会的收入不平等程度。在图 1 中,横轴代表人口比例(%),纵轴代表收入比例(%),则 45% 直线代表收入绝对平均,因为对任意 x% 人口,其收入占比也是 x%,另一条凸函数代表一个经济体的实际收入分配状况,显然,这条曲线表示存在一定程度的收入不平等现象,因为任意x% 的人口其收入占比小于 x%,但当 x% 接近 1 时,收入占比迅速接近 1%,这表示高收入人口的收入占比较高。为了测度收入不平等程度,可使用基尼系数 G=A/(A+B),其中 A 是 45% 直线和凸函数曲线之间的面积,B 是凸函数曲线以下面积。显然,当收入为正时,基尼系数取值范围是 0 ≤ G ≤ 1。若G=0,代表收入绝对平均分配,而若 G=1,则意味着一个人拥有整个经济体的收入。基尼系数有一个严重缺陷,即两种不同的收入分布,可以有相同的基尼系数。换言之,基尼系数不能唯一刻画收入不平等现象。而收入分配表是分位数,通过研究收入(或财富)最顶端 1% 的群体和最底端 50% 的群体的收入在总收入中的比重,可以更直观地刻画收入分配不平等的程度。图 2 显示美国收入分布的变化,可以看出,1978-2014 年美国人均收入整体呈现上升趋势,其中,最顶端 1% 的群体的收入占比持续上升,但最底端 50% 的群体的收入却一路走低,该图直观地刻画了过去 40 年美国收入差距不断拉大的趋势。进入 21世纪后,中国人均收入快速增长,但是 1% 的高收入群体和 50% 的低收入群体也呈现相反的走势,虽然在最近 10 年,1% 的高收入群体的收入占比略有降低,而 50% 的低收入群体的收入占比不再下降,保持稳定水平(见图 3)。
11.jpg
22.jpg
33.jpg
  皮凯蒂的数据整合看似很简单,但他估算近 300 年来世界主要国家的历史数据,包括法国、美国、英国以及中国在内,并计算出这些国家的资本与劳动收入占比,这本身是一个巨大的研究工程。皮凯蒂花了 20 年,与合作者共同创建了世界不平等数据库(World Inequality Database,WID),这个数据库正在推动不平等经济学领域的发展。2020 年,皮凯蒂在英国记者 Simon Kuper访谈中提到:“我思考的主要独到之处是,我的分析可以基于历史直到今天的时间序列数据。”
  (二)中国减贫成就与 2019 年诺贝尔经济学奖
  贫困问题一直是发展经济学长期关注和研究的重要问题。2019 年诺贝尔经济学奖授予阿比吉特·巴纳吉(Abhijit Banerjee)、埃丝特·迪弗洛(EstherDuflo)和迈克尔·克雷默(Michael Kremer)三位经济学家,以表彰他们创新“减轻全球贫困方面的实验方法”。他们的主要贡献是提出新的随机试验方法——随机控制实验(Random Control Experiment),以探索关于消除全球贫困的最佳方式。中国经济学家大多擅长宏大叙事,所研究的问题比较宏观,但这三位经济学家将贫困研究这个大问题细分成更小、更容易分析的子问题,例如,他们研究了改进教育成效或儿童健康的最有效干预措施。这些更小更精确的问题,往往可以通过精心设计的实验,在最受影响的人群中获得最好的回答。这是一种研究方法的创新,特别在消除贫困的因果推断方面。他们还创建阿卜杜勒·拉蒂夫·贾米尔贫困行动实验室(Abdul Latif Jameel PovertyAction Lab,J-PAL),其主要任务是与发展中国家的政府合作,提供关于反贫的咨询建议,确保扶贫政策的制定基于科学依据,从而有效减少贫困人口。J-PAL 实验室的研究成果已赢得国际认可。
  毫无疑义,三位经济学家对贫困经济学和世界反贫事业做出了重要贡献。但是,相比而言,过去 40 多年来,中国经济高速增长,共有 8 亿多人实现脱贫,对世界减贫贡献率超过 70%。2020 年 11 月 23 日,贵州省宣布最后 9 个县退出国家级贫困县序列,至此全国 832 个贫困县全部脱贫摘帽,中国提前10 年实现联合国 2030 年可持续发展议程消除绝对贫困目标,反贫成就得到联合国、世界银行等国际组织的普遍认可。然而,中国经济学家没能像 2019 年的三位诺贝尔经济学奖得主那样,向国际同行讲好“中国减贫故事”,主要是因为我们缺乏国际同行认可的研究范式,特别是适合中国情景的定量实证研究方法的创新与应用,导致没有产生具有国际学术影响力的反贫困学术理论成果。应该指出,三位反贫困经济学家提出的随机控制试验并不能被照搬照套来研究中国的贫困问题。例如,中国很多扶贫措施并不是根据随机控制试验方法而设计出来的,因此这些方法可以借鉴,但是需要根据中国实际情况加以改造与创新。
  以上两个实例表明,中国经济学研究与世界一流经济学研究水平相比,一个比较大的差距在于研究范式与研究方法,特别是缺少符合科学研究范式同时又适合于中国情景的定量实证研究方法的创新与应用。
  四、大数据的特点和机器学习的本质
  在大数据时代,万物皆可互联,任何经济活动都会留下痕迹,所有经济现象都可用大数据描述。大数据大都为高频甚至实时数据,来源广泛,形式多样,种类繁多,既有结构化数据,也有非结构化数据,如文本、图形、音频、视频等。这些数据包含各种丰富的信息,海量大数据反过来又会驱动新的经济活动。大数据因此为经济学和人文社会科学的实证研究提供了大量丰富的故事与素材,同时也在改变经济学和人文社会科学的研究范式与研究方法。目前,大数据和人工智能技术正在推动第四次工业革命的蓬勃发展。由于人口规模、经济规模以及中国政府“互联网 +”等一系列推动数字经济发展的政策,中国在大数据资源上具有一定优势。按照数据生成总值(Gross Data Product,GDP),中国目前在全球排列第三,次于美国和英国,同时增长速度非常快(Chakravort et al., 2019)。此外,中国政府拥有大量的“政策数据库”,包括各种政府文本数据,这是中国经济学家研究政府与市场这个经济学基本关系的天然的独特的数据优势。如何将大数据资源优势转化为经济学的研究优势,是中国经济学家面临的一个重要问题。
  众所周知,大数据具有规模性(volume)、高速性(velocity)、多样性(variety)、准确性(veracity)等特点。所谓规模性主要体现在两个维度:一是样本容量大,样本容量大大超过解释变量的数目,这称为高大数据;二是变量数目多,解释变量的数目超过样本容量的个数,这称为胖大数据,是一种高维或超高维数据。这种数据既给计量经济建模提供了很大灵活性,也带来了所谓“维度灾难”(curse of dimensionality)的挑战。多样性是指大数据既有结构化数据,又有非结构化数据,非结构化数据提供了传统数据所没有的丰富信息,这样可极大地拓展经济学研究的边界与范围。高速性是指高频数据甚至实时数据的可获得性。而准确性则是指大数据容量很大,噪音可能很大,因此信息密度较低,这里统计学一些基本原理,如充分性原理和降维原则,在总结、提取数据信息时就显得非常有用。同时,由于大数据结构复杂、形式多样,信号噪声通常比较低,传统的统计充分性原理和降维方法需要有所创新与发展。
  机器学习早在 1959 年就已提出,但真正大规模应用是在大数据出现之后。这是一门多领域交叉学科,涉及概率论、统计学、数学(如逼近论、凸分析)、复杂算法理论等学科,研究计算机如何基于数据自动模拟或实现人类的学习行为,以获取新的知识或技能。它是人工智能的核心,通过基于经验(数据)能够自动改进的计算机算法,使计算机具有一定的智能学习能力,进行精准预测与决策。机器学习常见的方法包括贝叶斯学习(Bayesian Learning)、K- 最近邻法(K-Nearest Neighbor,KNN)、决策树(decision tree)、随机森林(random forest)、支持向量机(Support Vector Machine,SVM)、人工神经网络(Artifi cial Neural Network,ANN)、深度学习(deep learning)等(陈强,2020)。机器学习的很多方法本质上是数学函数形式限制少、模型灵活性高的非参数分析方法,如 k- 最近邻法、决策树、随机森林、人工神经网络、深度学习等。例如,人工神经网络(ANN)就是仿照认知科学进行信息处理过程的一个数学模型(见图 4),其本身是一种非参数统计模型,而深度学习是更高层次的人工神经网络。早在 20 个世纪 80 年代,著名计量经济学家 White(1989)就证明了只要样本容量足够大,ANN 可以无限逼近任何一个未知的回归函数,他在人工神经网络模型领域做出了原创性的理论贡献。20 世纪 90 年代,ANN 广泛应用于经济学与金融学的实证研究中,但 ANN 预测金融数据的效果并不理想,这可能与当时计算机的计算能力、运算速度与算法等因素有关,当然也可能与经济金融时间序列数据具有时变性等特点有关。随着海量大数据的可获得性和计算能力的大幅提升,ANN 样本外预测精确度大幅提升,已广泛成功应用于语音与人脸识别等领域。
44.jpg
  大数据由于其海量特性及形式复杂多样,既有结构化数据,又有非结构化数据,因此依靠人工是无法进行大数据分析的,必须借助人工智能技术。机器学习是一种分析大数据的人工智能技术,由于云计算的出现而在实际中获得了广泛应用。具体地说,机器学习利用计算机算法程序自动分析大数据,并基于大数据进行样本外预测(包括分类)。本质上,样本外预测和分类是一个泛化(generalization)过程,即从一个训练数据(training data)中学习数据的系统特征,特别是数据中变量特征以及变量之间的统计关系(如相关性),然后用于外推预测另一个未知数据。这一特点类似于统计推断。样本外预测的精准性,取决于训练数据与未知数据的系统特征(如统计关系)是否具有相似性,这决定泛化能力的强弱。机器学习算法可表示为一个基于数据的数学优化问题,通过计算机算法程序设计来自动实现。机器学习样本外准确预测的关键在于防止过度拟合(overfitting)。什么是过度拟合?一般来说,一个数据可被分成两部分,一部分是训练数据,用来估计算法的结构参数或者模型参数,以决定算法的复杂程度;另一部分是测试数据(test data),用于测试由训练数据获得的算法的预测精确度。算法主要是挖掘训练数据中变量特征以及变量之间的统计关系,然后用于预测测试数据。如果算法刻画了存在于训练数据但不会在未知数据(如测试数据)中重复出现的系统特征与统计关系,就会出现过度拟合。此时,虽然对训练数据的拟合效果很好,但不会在未来数据中出现的这部分数据特征,就会成为无用的噪音,降低样本外预测的精准度,因此需要尽量减少。为此,有必要引入惩罚项,以控制算法的复杂性程度。用统计学术语说,惩罚项将显著减少预测的方差(variance),虽然它一般会增加预测的偏差(bias)。通过优化加上惩罚项后的目标函数,不断学习训练数据,可使算法得到进一步优化,在预测方差与偏差之间取得平衡,最小化泛化误差。通常,一个较小的偏差增加,可换来一个较大的方差减少。在实际应用中,基于大数据机器学习的样本外预测大多比较准确,这种精准预测并不是基于经济因果关系,而是基于大数据中的变量特征与变量之间的统计关系,比如强相关性意味着在未知数据中重复出现的概率比较大。这些统计关系对于预测很有帮助,但算法本身像一个黑箱,无法辨别是谁引起的谁的变化,其解释力很弱,特别是不存在因果关系的解释。在这个意义上,诺贝尔经济学奖得主托马斯·萨金特(Thomas Sargent)指出,“人工智能只是使用了一些华丽的辞藻,其实就是统计学”。
  机器学习已广泛应用于数字经济活动中。例如,算法交易(algorithmictrading),在国内也译为量化交易,早在 20 世纪 90 年代就开始应用于金融市场,现在外汇市场 85% 以上的交易都是算法交易完成的。汽车无人驾驶也是基于大数据相关性分析,通过机器学习对包括各种交通行为与现象的大量经验数据进行自动学习与预测,指导汽车行驶。机器学习也在很多领域开始代替人工,包括速记、文字翻译、同声传译、会计、新闻写作甚至学术论文写作等。
55.jpg
  此外,机器学习也创新了一些商业模式,如信用卡与小额贷款审批,机器学习通过对企业与个人的大数据信息分析,可以预测其信用风险水平,从而决定是否通过信用卡或贷款审批。人工智能对劳动市场也产生了深刻影响,已出现的所谓的“无人经济”,其实就是人工智能替代工人。大数据和人工智能还会影响财富收入的分配。例如,德国总理默克尔在 2018 年 6 月全球经济论坛上提到,“数据的定价,尤其是消费者数据定价,是未来主要的公平问题。否则你将会经历一个非常不公平的世界,人们免费提供数据,而其他人则利用数据赚钱。数据是未来的原材料。……世界上存在巨大的不公平风险,我们必须将其纳入我们的税收体系。”数据作为一种关键的生产要素,特别是大数据和人工智能对经济的影响,包括对生产力和生产关系的影响,这无疑是经济学的重要研究内容(洪永淼、张明,2020)。与此同时,由于经济学实证研究以数据为基础,数据特点的改变以及数据分析技术的变化,也不可避免地影响了经济学的研究范式与研究方法。洪永淼、汪寿阳(2021)探讨了大数据和机器学习对统计学的影响,下文将聚焦讨论在数字经济时代,大数据和机器学习对经济学的研究范式与研究方法所带来的机遇和挑战。
  五、大数据和人文经济学研究
  在大数据时代,特别是有了大量的文本数据和机器学习算法,文本只能定性分析的状况因此得以改变,比较精确的定量实证分析可以引入,而且经济学也可从原来主要研究经济问题本身,拓展为研究经济因素与政治、法律、社会、历史、文化、伦理、心理、生态环境、卫生健康等因素之间的相互联系与相互影响,从而推动经济学和人文社会科学其他领域之间的交叉融合和跨学科研究。这种经济学与人文社会科学交叉融合的研究范式具有极其重要的意义,因为经济只是人类社会的一个组成部分(当然,是非常重要的组成部分),经济和其他人文社会因素是密切相关、相互影响的。因此,对经济的研究,应该放到一个更广泛的社会经济分析框架中加以系统研究。这样的跨领域、跨学科的人文经济学的定量实证研究范式,将有助于我们更深刻更系统地理解马克思、恩格斯关于经济基础和上层建筑之间、社会存在和社会意识之间,以及人类社会与生态环境之间的辩证关系,并从中找出解决人类面临的重大经济社会问题的系统办法。
  关于大数据和机器学习如何促进人文经济学的定量实证研究,具体地说,我们将阐述大数据和机器学习如何影响经济学关于心理情感、政治法律、历史文化、生态环境、卫生健康等因素的研究。这些研究领域有不少之前就已经存在,如法与经济学、新政治经济学、文化经济学、环境经济学以及健康经济学等交叉学科,但是有了大数据特别是文本数据之后,现在可以用文本回归等计量经济学方法,进行定量实证分析。这样,经济学除了定性分析之外,还可以增加更加严谨的定量实证分析,而且研究的广度、深度因为交叉学科和跨学科研究而可得到极大拓展。
  经济学关于心理情感等人文因素对经济的影响的研究,已有相当长的历史。在《国富论》出版之前,亚当·斯密(Smith,1759)的另一本重要著作《道德情操论》(The Theory of Moral Sentiments),就提出追求优化行为时还需要有一定的道德情操。19 世纪 70 年代的边际革命通过边际效用这个重要概念将心理因素引入经济学的分析框架之中,所谓的边际效用就是研究心理偏好对需求的影响。凯恩斯经济学的边际消费倾向和“流动性陷阱”、理性预期(Rational Expectations)学派的“卢卡斯批判”(Lucas,1976),即理性经济人能够正确预测政府政策干预的目的,因此改变自身的经济行为,从而导致政策失效,所有这些都与经济主体(如消费者和生产者)的心理因素密切相关。预期这个经济学基本心理概念,已经成为宏观经济学研究和宏观经济管理的重要概念与工具。经济主体为什么会形成预期?其实是因为经济存在各种不确定性,如经济增长不确定性、通货膨胀不确定性、经济政策不确定性(EconomicPolicy Uncertainty)等,经济主体在进行决策时,需要考虑这些不确定性的影响,通过形成一定的期望,决定当下的经济行为。因此,经济不确定性通过经济主体的预期而对经济(如投资、消费)产生影响。在抗疫期间,中国实施的“六稳”和“六保”政策,其中“六稳”之一是稳预期,通过一系列政策工具稳定经济主体的心理预期,减少疫情不确定性对经济的冲击。
  另一方面,行为经济学和实验经济学研究微观主体心理对经济行为和经济决策的影响,如神经经济学(Neuroeconomics)运用神经科学技术来研究与经济决策相关的神经机制,综合了经济学、心理学、脑科学以及神经生物学等诸多学科方法来研究经济决策行为等。很久以前,著名心理学家弗洛伊德曾期望心理学能够发展成为这样的一门科学,即人类的心理活动规律背后都有一定的生物学基础。现代心理学和神经经济学都已经达到这样一种境界。
  诺贝尔经济学奖得主罗伯特·希勒(Shiller,2019)写了一本书,名为《叙事经济学》(Narrative Economics: How Stories Go Viral and Drive Major Economic Events),主要研究重要经济叙事的传播机制及其对经济的影响。看似是一个个经济故事,但其传播的广度、深度与速度都会对社会群体心理产生影响,进而影响经济。书中提到罗斯福总统“炉边谈话”、拉弗曲线、比特币等美国经济叙事。他认为比特币之所以价格飞涨,并非其自身价值高,而是它塑造的故事受到了人们的热情追捧。中国同样有叙事经济学。20 世纪 80 年代“让一部分人先富起来”的叙事激励劳动致富;深圳 80 年代和 90 年代的创业故事,特别是“时间就是金钱,效率就是生命”,鼓励很多人下海经商,等等。另外,经济活动和金融市场中的市场情绪(如悲观、恐慌)、资产泡沫、金融传染病、羊群效应、银行挤兑等经济现象,都体现了社会群体心理对经济或金融市场的重要影响。目前叙事经济学还处于婴儿期,席勒勾勒了一个初步的分析框架,但其研究范式还有待完善,特别定性分析加上符合科学研究范式的定量实证分析,在这方面,文本数据和机器学习可发挥重要作用,使叙事经济学的定量实证研究成为可能。
  一段时间以来,已有不少经济学家研究投资者的情绪对金融市场的影响,即所谓的投资者情绪(Investor Sentiment)对资产定价和金融市场波动的影响。文化因素对经济、金融的影响,如文化伦理对公司治理和经济增长的影响,这些方面的研究也很多。又如伊斯兰金融(Islamic Finance),根据伊斯兰教义,伊斯兰金融借贷不付利息,但借贷者若投资成功,则需要分享利润。这种独特的借贷文化如何影响资金配置以及金融市场运行,值得认真研究。“一带一路”倡议沿线国家有不少是伊斯兰国家,对伊斯兰金融的研究将有助于我们更好地熟悉这些国家的投资环境。还有量化经济史学,是基于一些历史数据的构建,运用计量经济学方法研究制度、文化因素对经济的因果影响。大数据特别是历史文本数据的数字化,让构造历史变量变得更为方便与容易。
  大数据的出现,使经济学在一个更大的分析框架中运用定量的实证方法研究经济与心理情感、政治法律、历史文化、生态环境、卫生健康等因素之间的相互关系,特别是推断其因果关系。例如,我们可以使用大数据特别是文本数据,构建各种心理变量,如投资者情感指数、消费者幸福感指数、经济政策不确定性指数、经济政策变化指数,社会舆情指数等。这些心理变量构造出来以后,就可以用文本回归方法,定量研究社会群体的心理情感等因素与经济之间的相互关系。这种新的人文经济学定量实证的研究范式,能够将经济学研究置于一个更广泛的社会经济分析框架中,这是经济学未来的一个新兴研究方向。
  以下举例说明如何使用大数据特别是文本数据构建重要的心理情感变量。我们以构建投资者情绪指数为例。社交媒体平台,如新浪微博、腾讯 QQ、推特(Twitter)、脸书(Facebook)等,所产生的大数据比任何统计调查数据都
  覆盖更大范围的投资者,因此更具有代表性。现在考虑利用推特平台的海量大数据构建投资者情绪指数,首先,对特定期间内的每一条推特进行“字符分析”,判断推特信息是否与金融市场波动性(如 CBOE VIX)有关,如果是有关波动性的信息,再继续判断该条推特信息发布者的情绪(乐观、悲观、激动、平和等),这可以由人工智能自然语言处理技术来完成。然后,根据“字符分析”的结果对每一条推特信息赋值,并加权平均。加权平均的权重有两个维度:一是对推特信息发布者的过去历史进行深度学习,判断其影响力进而赋予相应的权重,如特朗普总统、资深股评家权重赋值高,普通投资者权重赋值低;二是在抽样期间较长的情况下,不同时段应赋予不同的权重。Baker andWurgler(2007)基于 1966-2005 年的历史数据(严格地说,这些数据不是大数据),选取 6 个指标构建投资者情感指数,他们发现投机需求(speculativedemand)与投资者情感呈现很强的相关性。
  我们现在经常说世界不确定性因素在增加,如过去几年的中美贸易摩擦导致中国经济与世界经济不确定性明显增加。产生经济不确定性的因素很多,其中政府政策的改变是引起不确定性增加的一个重要原因。那么,如何测度政策不确定性及其影响?在经济学实证研究中,经济政策不确定性最常用的测度是基于报纸的文本数据。Baker et al.(2016)基于美国十大主流报纸在一个月内与经济不确定性相关的词汇出现的频率,构建了一个经济政策不确定性月度指数。除报纸文本数据外,这个经济政策不确定指数还包括三个指标:税法法条失效指数,通过统计每年失效的税法法条数目来衡量税法变动的不确定性;经济预测差值指数,通过考察不同预测机构对重要经济指标(包括消费者价格指数,CPI)的预测差值来衡量经济政策的不确定性;以及联邦 / 地方州政府支出预测差值。四项指标的权重分别为 1/2、1/6、1/6 和 1/6。关于权重的确定没有唯一的标准,这方面有很大的研究空间,这属于经济统计学的范畴。经济政策不确定性指数可视为新闻记者这个群体对经济政策不确定的心理感受与心理反映,本质上是一个特定社会群体的心理指数。
  从 Baker et al.(2016)的实证研究可以看出,不确定性指数与美国和世界重要政治经济事件存在很强的相关性。他们的研究还表明,政策不确定性指数与一些宏观经济变量,如经济增长有显著的反向关系,与失业率呈现正向关系,也就是说,不确定性指数越高,经济增长越慢,失业率也越高。当然,这些相关关系是不是因果关系,需要进一步分析。Chan and Zhong(2019)基于《人民日报》1946 年创刊以来的所有中文文本数据(约 100 多万篇中文文章,共计 20 亿汉字),采用人工神经网络深度学习方法预测中国经济政策变化,并据此构建了一个中国经济政策变化指数(Economic Policy Change Index)。他们发现,所构造的中国政策变化指数与新中国成立后发生的重大政治经济事件基本吻合。
  大数据革命催生了现代社会科学一个新的学科,叫做计算社会科学(Computational Social Science),极大地改变了人文社会科学的研究范式,特别是从定性分析到定量实证分析(胡安宁等,2021)。使用大数据和机器学习研究人文社会科学的定量实证研究日益增加,因此,应该适时推动经济学和人文社会科学其他领域之间的交叉融合和跨学科研究。
  六、大数据、机器学习和经济学实证研究方法创新
  上文阐述了在大数据时代,大数据和机器学习对经济学研究范式的深刻影响,特别是文本数据的可获得性,使经济学能够在一个更大的统一分析框架中,系统地研究经济与心理、历史、文化、社会、政治、法律、生态、健康等人文社会因素之间的相互影响,从而促进经济学与人文社会科学其他学科之间的交叉融合和跨学科研究。在这一部分中,我们举例论述大数据和机器学习对经济学的实证研究方法的影响。在实证革命时代,计量经济学作为经济学实证研究最重要的方法论,在推动经济学研究方面发挥了至关重要的作用(洪永淼,2007)。经济观测数据非实验性的特征,使计量经济学方法的重要性更加凸显,而大数据相对于传统数据的新特点,客观上要求对计量经济学方法与工具进行创新和发展。大数据除了非结构化数据之外,还有大量的结构化数据,包括高频甚至实时结构化数据,如金融市场上每笔交易数据(tick-by-tick data)。在结构化数据中,出现了不少新型数据,如函数数据、区间数据和符号数据等。这些新型数据比点数据包含更丰富的信息,并且呼唤新的计量经济学模型,计量经济学理论与方法也因此在大数据时代有取得原创性突破的可能性。事实上,过去 20 年,仅仅由于经济金融数据的实时或高频化就已经产生了很多新的计量经济学模型与方法。例如,Engle and Russell(1998)和Engle(2000)基于每笔交易数据提出了一个类似于 GARCH 波动模型的新模型——自回归条件久期(Autoregressive Conditional Duration,ACD)模型,对金融事件的持续时间长短,如两笔交易或两个价格变动的时间间隔,进行建模,这个模型可以利用历史数据预测金融事件(如价格变动)发生的时间,对理解金融市场微观结构和衍生产品定价很有帮助。同样,有了日内高频数据(intraday data),就可以计算所谓的实现波动率(realized volatility),以估计日波动率(daily volatility)。实现波动率的公式为 66.jpg 其中,i 指某一天每几分钟(如 5 分钟内)的金融资产价格变动。将这一天日内价格变动的平方加总起来,根据大数定律,就可以一致估计当天的波动率。这个方法其实非常古老,以前估计某一个金融变量的年波动率,就是把每天的价格变动平方加起来。现在有了日内高频数据,就可以一致估计日波动率。当然,这里需要考虑市场微观结构噪声(market microstructure noises)对日波动率估计的影响(Ait-Sahalia and Yu,2009),这是以前低频金融数据所没有遇到的问题。
  在宏观经济学研究中,大多数宏观经济变量的最高频数据是月度数据,如消费者价格指数(Consumer Price Index,CPI)、生产者价格指数(ProducerPrice Index,PPI)等。GDP 没有月度数据,因此常用工业生产指数(IndustrialProduction Index)来代表。在大数据时代,可以构造更高频的宏观经济变量数据,如每周甚至每天的 CPI、PPI 等,预计高频实证宏观经济学这样的新学科将会诞生,这将使我们能够更加精确地研究宏观经济变量之间的数量关系,更加及时把握宏观经济变动趋势。例如,格兰杰因果关系(Granger,1969)是指两个时间序列变量在时间维度上的相互关系或预测关系,即一个时间序列变量的历史信息是否对另一个时间序列变量具有预测能力。由于宏观经济变量大多通过加总(aggregation)构建而成,导致格兰杰因果关系与抽样时间间隔长度有关。比如,两个时间序列变量(如失业率和通货膨胀率)可能在高频时间间隔存在格兰杰因果关系,但在低频时间间隔由于变量在时间维度上的加总(temporal aggregation)而可能只剩下即时相关性。此外,高频时间序列变量可能存在非线性关系,但在低频时可能会变成线性关系;高频时间序列变量以及变量之间的关系可能存在结构突变,但在低频时可能会呈现缓慢结构变化。另一方面,长期以来,由于金融市场瞬息万变,基于低频宏观经济数据研究宏观经济与金融市场之间的互动,一直存在很多困难。现在,宏观经济时间序列数据的高频化,将使研究宏观实体经济和金融市场之间在较高频率上的相互影响成为可能。总之,高频宏观大数据将为研究宏观经济变量的动态特征与性质提供新的洞见。
  以下,我们通过几个具体案例,详细说明大数据和机器学习如何影响经济学实证研究的方法创新。
  (一)区间数据建模与宏观经济区间管理
  新型大数据包括金融学的日内数据、每笔交易数据、函数数据、区间数据以及符号数据等。何谓区间数据?比如,《纽约时报》和《华尔街日报》每天都会报道股票市场开盘价、收盘价、最高价、最低价等信息,由最高价、最低价所构成的数据集合就是一个区间数据。除了股票价格数据外,金融市场上的买卖价差(bid-ask spread),商业银行的存贷款利率、医学的高低血压压差、天气高低气温、劳动经济学的男女收入差距等都构成区间数据。目前计量经济学建模几乎都是基于点数据,如应用 GARCH 模型对股票市场波动率的建模,大都以每日收盘价数据为基础。显然,每日收盘价并不能反映当日价格波动的信息,但如果使用由每日最高价和最低价构成的日区间数据,那么这个区间数据比每日收盘价包含更多的信息,不仅收盘价落入区间内,而且区间数据还包含价格水平(价格中点)和价格波动范围的信息。长期以来,区间数据所包含的信息在计量经济学建模中没有得到有效利用。
  现有计量经济学理论与方法不能直接用于分析区间数据。对区间数据建模,需要一套适合区间数据的概率论与数学方法,特别是随机集概率论(Probability Theory of Random Sets)及其应用。一维随机集就是区间随机变量,而二维随机集就是随机平面区域。对一维随机集,即区间数据的平稳性、相关性、距离等基本概念,以及加减乘除等运算法则都要重新定义,这牵涉到很多新的数学方法与工具(Han,et al., 2018; Sun et al., 2018)。
77.jpg
  区间建模可应用于宏观经济调控。早在 2013 年中国经济进入新常态时,中国政府就提出宏观经济区间调控新思维。什么叫做宏观经济区间调控?就是避免经济大起大落,使经济运行速度保持在合理区间。其“下限”就是稳增长、保就业,“上限”就是防范通货膨胀。最近几年,国务院《政府工作报告》和越来越多的省份《政府工作报告》,设定的每年增长目标都不是一个点数字,而是一个区间。相对于原来的点增长目标,区间管理是中国宏观经济调控实践的一个创新,它既能够保证最低经济增长速度的要求,又给予宏观经济调控一定的灵活度,避免原来为了达成点增长目标而采取的一些短期行为,有利于中长期经济平稳持续健康发展。
  区间数据建模可以更好地测度和预测经济金融的不确定性。我们以 He et al.(2021)预测原油期货价格为例。令 Ft = [Lt,Ht ] 表示原油期货月价格区间,其上下界为月内每日原油期货的最低值 Lt 和最高值 Ht,其中Lt和 Ht为对数型价格,月度原油价格变动范围(range)为 Rt =Ht ? Lt ,月度原油价格中点(midpoint)为 Mt = ( Lt + Ht )/ 2 。从原油价格区间时间序列数据可以看出,价格中点的变化存在负自相关,而价格范围的变化则存在正自相关。
88.jpg
  为了预测原油价格区间,He et al.(2021)使用以下自回归区间时间序列模型:
99.jpg
  其 中 100.jpg
  ECt 是长期均衡关系构成的误差滞后项,SPEt 是区间型投机因素,其上下界是由 NYMEX 市场石油期货非商业持仓的多头头寸周度数据的最大值和最小值构成,而 ut 是一个区间随机扰动项,其均值为零(均值上下界均为零)。这个模型可视为时间序列分析中 ARMAX 模型的区间版本,由 Han et al.(2018)首先提出。模型中所有未知参数均为标量。
从区间模型可分别推出原油价格中点模型和价格范围模型,表示如下:
101.jpg
102.jpg
  这样,基于原油期货价格区间数据,我们可以估计自回归区间模型(1)的所有未知参数值。有了这些参数估计值,我们便可根据价格区间模型、价格中点模型和价格范围模型分别预测价格区间、价格中点和价格范围。Chou(2005)采用与 Engle and Russell(1998)相似的建模方法,假设价格范围的条件均值遵从类似 GARCH 的结构,使用价格范围的历史数据预测将来的价格范围。这个模型称为条件回归范围(Conditional Autoregressive Range,CARR)模型。由于价格范围是最高价减最低价,区间数据的中点信息被差分掉了,因此在估计 CARR 模型的未知参数时只利用了价格范围的信息,没有充分利用区间数据的信息。不同于 Chou(2005)和 He et al.(2021)直接采用区间数据估计区间模型的未知参数,由于比较有效地利用区间数据信息,所估计的参数更准确。He et al.(2021)发现,从区间模型衍生出来的价格范围模型对波动率的样本外预测比基于价格范围数据的 CARR 模型更精准。
  (二)机器学习与高维计量经济学模型
  统计学有一个词叫维数灾难,意思是一个统计模型中的解释变量的数目 p相对于样本容量 n 显得很大,甚至超过样本容量。如果解释变量的数目 p 大于样本容量 n 的话,那么,对于高维线性回归模型来说,首先解释变量构成的逆矩阵(X'X)-1 就不存在。解决这个问题的一个基本办法就是降维。统计学有很多降维方法,包括主成分分析和因子模型。还有一个压缩估计方法(LeastAbsolute Shrinkage Selection Operator,LASSO),由统计学家 Tibshirani(1996)提出。该方法有一个基本假设叫稀疏性,即假设存在很多潜在的解释变量,但其中只有少数几个未知变量的系数不为零,其他变量的系数都等于零。在这种情形下,可以引入一个惩罚项,即所有未知参数绝对值之和小于某个常数阈值。如果是二维的话,这个限制就是 |β1+β2| 小于某个常数,这在几何上可表示为一个菱形。LASSO 准则有一个特点,会产生角点解(corner solution),即每个系数估计要么给一个不等于零的值,要么如果其估计值很小时,直接把它归零。可以证明,当样本容量趋于无穷大时,被直接归零的那些系数恰好就是其值为零的真实系数。这样,通过降维,LASSO 大幅度减少估计值方差,在预测方差和偏差之间取得平衡,实现精准预测。这个方法叫做统计学习,与机器学习的原理非常类似,也有人将它称为机器学习,但大部分机器学习方法并不局限于使用线性回归模型。
  LASSO 方法可推广到解决计量经济学的其他问题上,如识别因果关系。识别经济因果关系最基本的计量经济学工具是两阶段最小二乘法(Two-StageLeast Squares,2SLS)。作者之一在 20 世纪 90 年代攻读博士期间,曾参与一个课题研究(Groves et al., 1994),研究 20 世纪 80 年代中国的中小国有企业奖金和产出之间的关系。在 80 年代,国有企业引入奖金制度,改革之前工人的工资收入固定,改革之后建立了奖金制度,如果干得多干得好,就能够得到相应的奖金;如果迟到早退干不好,奖金就没有了。根据管理经济学的原理,奖金将激励工人的劳动积极性,从而提高企业生产率。因此,可以用一个方程表示奖金会提升劳动生产率,这是从奖金到劳动生产率的因果关系。但对于一些垄断行业、特殊行业的企业,其本身利润就比较高,付给工人的奖金也就比较多。这就存在另外一个方程,即利润较高的企业,付给工人的奖金也比较多,这是从劳动生产率到奖金的逆向因果关系。由于产出与奖金之间存在双向因果关系,导致从奖金到产出的模型存在所谓的内在性,即在第一个方程中,奖金与随机扰动项之间存在相关性,因此最小二乘法估计存在偏差。一个常用的解决办法是采用 2SLS 法,其关键是选择合适的工具变量。所谓工具变量 Zt 需要满足三个条件:第一,Zt与第一个方程的解释变量 Xt 之间高度相关,即 E( XtZt′)≠ 0;第二,Zt与第一个方程的随机扰动项 εt 不相关,即E( εt|Zt) = 0;第三,Zt的个数不少于解释变量 Xt的个数。
  在第一阶段,通过辅助线性回归 Xt=γ′ Zt + υt ,可得到拟合值 103.jpg 。在第二阶段,将原来的因变量 Yt 对拟合值 110.jpg 进行回归,这个第二阶段的最小二乘法估计量便可以一致估计奖金系数:
104.jpg
  工具变量起了什么作用呢?它实际上将从劳动生产率到奖金的因果关系切断,只留下从奖金到劳动生产率的因果关系,因此可得到一致参数估计。
  很多实证研究发现,所选择的工具变量 Zt与解释变量Xt 之间的相关性常常很小,即存在弱相关,导致 2SLS 估计不精确,甚至不能一致估计真实奖金参数。这种情况称为“弱工具变量”(Staiger and Stock,1997)。要解决弱工具变量问题,可以增加工具变量个数,但是一旦工具变量的个数特别多时,需要估计的未知系数也会增多,将导致类似“维数灾难”的问题。现在,可以用大数据加机器学习的方法,大数据可以提供高维潜在的工具变量,其中可能只有少数几个变量比较有效,即与解释变量相关性较高,但我们并不知道是哪些变量。我们在第一阶段回归(Xt=γ′ Zt + υt)时,可以采用类似 LASSO 方法,将最重要的那些工具变量识别出来,从而改进 2SLS 估计的精准性。
  (三)机器学习与政策评估
  改革开放以来,中国通过实践探索,建立了中国特色社会主义市场经济体制,市场在资源配置中发挥决定性作用,同时政府也发挥着重要作用。新中国 70 多年的经济实践证明,市场这只“看不见的手”和政府这只“看得见的手”两手并用,比单独一只手发挥作用要有效得多。在中国,政府发挥作用的一个重要方式是通过制定、实施各种经济政策,如五年计划(规划)、产业政策、区域发展政策、贸易投资政策、精准扶贫政策以及财政金融政策等。这些政策在中国经济发展中发挥了巨大作用。但是,长期以来,一些部门、一些地方的政策,没有经过认真的调研、设计与论证,便仓促出台实施,导致效果不理想,甚至出现政策从出台到取消不超过一至两周寿命的政策乱象。例如,2002 年 8 月实施 9 天即叫停的“个性化车牌”政策;2013 年 1 月实施 5 天即叫停的“违反黄灯信号扣分政策”;2015 年 3 月施行 7 天即告失败的“重庆医改”;2016 年 1 月实施 4 个交易日即叫停的“股市熔断机制”;2016 年 3 月下发当晚即宣布不具备出台条件的“零首付”购房政策;2018 年 5 月 4 天内 3次增补条款的“人才落户政策”;2018 年 12 月印发 8 天即宣布撤销的“取消限价令”通知;2020 年 2 月半天内紧急撤销《关于加强进出武汉市车辆和人员管理的通告》(第 17 号);2020 年 3 月 6 小时内便紧急撤销关于“潜江优化调整市内交通管控、人员管理和复工复产措施”的通告等。
  中国正在推动经济高质量发展,迫切需要提高各种政府经济管理精细化水平,特别是提升政策制定的科学性、政策实施的有效性、精准性和时效性。定量评估政策效应是一个重要环节。中国正在逐步推行第三方评估,这在一定程度上可以解决政策评估独立性的问题,但还需要解决政策评估的科学性问题。
  所谓政策评估,本质上是经济因果关系分析。前文提到,影响经济结果Y的因素除了政策变量X之外,还有很多其他因素(有些可观测,有些不可观测)。要评估政策X对经济结果Y 有无效果,需要控制其他因素不变,通过实施政策X,观测经济结果Y是否改变,如果改变了,那么这表明政策是有效的。但是, 由于经济系统的非实验性,我们不可能控制“其他因素”不变,在这种情况下,如何评估政策效应呢?
  既然“其他因素”无法控制或者虽可控制但有很大困难,我们可以让这些因素继续变化,但是假设不实施政策干预,即让政策变量X保持不变。在已经实施政策的现实条件下假设政策没有实施,显然是一个虚拟假设。我们可观测到政策实施后的现实经济结果Y,但无法观测虚拟假设条件下的经济结果Y*,称为虚拟事实(counterfactuals)。如果可以估计虚拟事实Y*,那么就可以评估政策效应为 Y-Y*。因此,政策评估的关键变成如何精准估计虚拟事实Y*。为了估计Y*,可以基于政策出台前经济变量之间存在的数量关系(这些数量关系不一定是因果关系)进行拟合,然后再假设这些数量关系不变(特别是不受政策实施的影响),外推(样本外)预测虚拟事实 Y*。举一个例子,著名计量经济学家萧政及其合作者(Hsiao et al., 2012)提出了一个基于面板数据模型的政策评估法,评估内地与香港特别行区(以下简称“香港”)于 2003 年签订的《内地与香港关于建立更紧密经贸关系的安排》(CEPA)协定对香港经济的影响。为了估计假设 2003 年没有签订 CEPA 的情形下,香港经济每年的虚拟增长率,萧政等基于 CEPA 签订前香港和全球合作伙伴的经贸往来数据,通过一个动态因子模型估计香港经济增长,这个模型并不是因果关系模型,而是基于预测关系,可用于外推预测 2003 年后假设没有实施 CEPA 的情形下,香港虚拟经济增长率Y*。萧政等估计 CEPA 签订给香港带来 4% 左右的经济增长。
  虚拟事实估计本质上是一种样本外预测。在这方面,基于大数据的机器学习可以发挥其优势,精准预测虚拟事实Y*,从而精准评估政策效应。需要强调,机器学习的精准预测不是基于因果关系而是基于大数据中的变量特征与变量之间的统计关系,但是机器学习预测可以更精准识别与测度政策干预的因果效应。目前,基于机器学习的因果推断方法包括因果随机森林(casualrandom forests)方法(Wager and Athey,2018; Athey et al., 2019)和贝叶斯累加回归树(Bayesian additive regression tree)方法(Chipman et al., 2010; Hillet al., 2020)。
  七、结束语
  经济学的研究范式和研究方法并非固定不变,而是随时代的变迁而不断变化,且越来越符合科学研究范式,即每个经济理论或假说,都必须进行经验(数据)检验。在数字经济时代,大数据和机器学习的出现,为经济学的研究范式和研究方法带来很多机遇和挑战。
  大数据特别是文本数据给经济学研究范式带来的一个重要变化是使人文经济学的定量实证研究成为可能。作为人类社会的一个重要组成部分,经济和人类社会的其他方面,包括政治、法律、社会、历史、文化、伦理、心理、情感、生态环境、卫生健康等因素,都紧密联系在一起,特别是新的技术革命和产业革命正在深刻改革人类生产与生活方式,改变社会生产力与生产关系,改变经济基础与上层建筑。因此,需要采用系统方法,在一个更大的人文经济学分析框架中研究经济问题,推动经济学和人文社会科学其他领域的交叉融合和跨学科研究,以寻找解决各种社会经济问题的系统方法。这是今后经济学研究的一个重要方向。另一个重要变化是,大数据和机器学习将带来经济学实证研究的方法创新。由于分析对象——数据的特点发生了重大变化,经济学的实证研究方法,即基于数据的推断方法也随之改变,这为计量经济学理论与方法创新提供了各种可能性,特别是经济大数据产生了很多新型数据,不但有结构化数据,而且还有非结构化数据,结构化数据也包括不少新型数据,如区间数据、符号数据、函数数据等。新型数据呼唤创新计量经济学模型与方法,这些新型模型与方法将更有效利用数据信息,使统计推断估计方法更为有效,假设检验更有效率,预测更精准。机器学习可以对高维或超高维数据实现降维,得到更为有效的统计推断和更精准的预测。维数灾难一直是计量经济学建模面临的一个两难问题,即模型中待估计的未知参数数目相对于样本容量显得很大,甚至比样本容量还要大。一方面,我们希望计量经济学模型能够尽量包括对经济可能有影响的各种因素,以提高模型的解释能力或预测能力;但另一方面,当解释变量或预测变量的维数很高时,需要估计的未知参数维数也会很大,甚至超过样本容量。在这种情形下,精确估计高维未知参数是十分困难甚至是不可能的。但是,如果高维解释变量或预测变量中只有一小部分未知变量对因变量有影响,则可以通过机器学习正则法实现降维,剔除大量无关的变量。这样,就可以获得一个简约模型,具有较强的稳健性和较好的可解释性,其样本外预测能力将比较精准。此外,大数据和机器学习也有助于更精确定量评估政策效应,从而更好发挥政府作用。

粮农智库促进乡村振兴
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册 手机动态码快速登录

收藏:0 | 帖子:1万

有图有真相