“这很酷”不是科学家开发有害技术的好理由

你可能正在阅读这篇文章的设备归功于大约55年前的一项实验。一组大学研究人员在美国国防部的资助下,在相距560公里的美国两台计算机之间建立了连接。这是阿帕网的第一次演示,阿帕网后来成为了互联网——这项技术在1989年发生了革命性的变化,当时英国科学家蒂姆·伯纳斯-李不仅创建了万维网,还免费赠送了他的发明。这种创新现在似乎永远消失了。科学研究绝大多数被私有化。

1980年的美国《拜杜法案》被视为一个关键的转折点,该法案允许私营公司为用公共资金创造的发明申请专利。渐渐地,知识产权——就像其他类型的财产一样——已经集中在超级富豪手中。从医疗保健和能源安全到太空探索和人工智能(AI)的新前沿,数十亿的科技巨头已经成为科学发现的守门人。(发现本身——当然是有利可图的。)
更重要的是,他们可以依靠科学哲学家希瑟·道格拉斯所说的“科学的旧社会契约”

来尽量减少对自己行为的责任。这份“合同”基于三个假设。首先,基础科学(如原子分裂)应该与应用研究(如开发原子弹)区分开来。其次,从事基础或“纯粹”研究的科学家不承担责任。第三,无论行业如何使用科学发现,公共资金都应该用于基础科学。这种“旧合同”——自工业革命以来在西方世界被默认——对科学家来说总是自私自利的。它允许像J·罗伯特·奥本海默这样的人以所谓的问心无愧的态度竞相发展核武器。

但这也是幼稚的,允许资本主义“创新者”利用科学的毯子来掩盖社会危害。你可能会认为,世界第二大富豪杰夫·贝佐斯(Jeff Bezos)靠破坏工会活动和无情镇压独立零售商来中饱私囊。但这位亚马逊执行董事长在回忆录中透露,他想被称为“发明家杰夫·贝佐斯”,并将自己比作现代的托马斯·爱迪生。世界首富埃隆·马斯克也喜欢把自己描绘成一个传统规则不适用的科学拓荒者。

他正在领导前往火星的行动,为地球设计防弹汽车,并重塑民主——所有这些都是一次性完成的。他疯狂的教授行为——“我是黑暗哥特式的Maga!”——是转移人们对企业责任的注意力的好方法。ChatGPT背后的公司Open AI的首席执行官Sam Altman更直接地利用“旧社会契约”获利。他在今年早些时候的一次采访中说,单位政策应该“在科学的下游”。

基于纯粹研究和应用研究之间的区别,他认为监督应该局限于人工智能的“相当于武器检查员”。[我们在人工智能生成的污水潮中已经达到了极限。在新窗口中打开]
鉴于Altman之前曾威胁要停止OpenAI在欧洲的业务,因为欧盟相对谨慎的新人工智能规则,他或其他科技企业家对这种程度的监督的承诺程度尚不清楚。道格拉斯说:“科学家不能以一种不负责任的方式运作。”他呼吁“科学的新社会契约”。

问责机制应该与“明确和精确的责任底线”联系起来,她最近在都柏林参加由都柏林大学哲学学院主办的科学与民主会议时告诉《爱尔兰时报》。她将设定的主要目标是“不要让世界变得更糟”。[人权委员会在新窗口中表示,将人工智能作为法律决策核心的后果“可怕”]
应用这些标准将使我们能够判断生成性人工智能、ChatGPT背后的技术以及旨在模仿人类功能的类似工具。虽然它可能被证明在癌症筛查等“狭窄”

应用中有用,但道格拉斯说:“从生成性‘深度伪造’色情片、报复性色情片到生成性‘深层伪造’政治广告,绝大多数用途往往是有害的……危害太多,好处却没有实现,部分原因是幻觉(荒谬或不准确的输出)的水平太高。”。“我认为,这真的取决于推动这些事情的科学家们,他们认为这项技术实际上是有益的,而不仅仅是‘我认为它很酷’,如果不是这样,我们没有理由不直接关闭它们。”

监管生成性人工智能本身很重要,但它也很重要,因为它是被称为通用人工智能(AGI)生存威胁的伪运行。这不仅仅是模仿人类智能,而是征服它:人类将能够像对待非人类动物一样对待人工智能。Geoffrey Hinton是今年诺贝尔物理学奖的“人工智能教父”,他说AGI“可能不到20年”。Hinton公开质疑Altman是否适合运行OpenAI,他说科学家需要保护自己免受伤害。

在为谷歌工作期间,当被问及人工智能带来的威胁时,他曾转述奥本海默的话:“当你看到技术上很好的东西时,你就去做。”Hinton不再这么说,承认他在谷歌没有足够重视道德问题。道格拉斯说:“我认为,旧合同通过采用免责模式,真正破坏了公众对科学的信任。”。“为什么公众应该信任一个不关心科学对社会影响的科学界?”