伟大的语言模型

Whatsapp
Facebook
Twitter
Instagram
Telegram

通过 埃莉奥诺拉·阿尔巴诺

大型科技公司(“伟大的语言模型”和类似技术的当前所有者)话语中最常见的误导是半真半假的说法

来自全球北方的无所不能的硬科学

在人类经验日益数据化的时代,科学家的批判性思维日渐式微也就不足为奇了。但无论如何,令人震惊的是,这种情况可能发生在传统的、享有盛誉的、通才的学术期刊的编辑部。因此,我怀着惊讶和愤慨的心情阅读了该杂志 2023 年 XNUMX 月期社论的开篇段落(抄录如下) 自然机器智能。 据了解,编辑组 自然于 XNUMX 世纪下半叶在伦敦成立,其使命是向整个科学界提供各个知识领域的可靠进展概要。

Frederick Jelinek 是一位著名的自然语言处理和语音识别领域的捷克裔美国研究员,他在 1985 年说过一句名言:“每次我解雇一名语言学家,语音识别器的性能都会上升”,这表明可能没有有效的方法将此类系统中的语言知识。这种观点是否也适用于最先进的大型语言模型(LLM),它似乎主要是计算机科学和工程的产物?法学硕士和语言学都研究人类语言,但它们是否或如何能够使彼此受益尚不清楚“。[I]的

至少,那些向科学界其他成员宣传人工智能 (AI) 进步的人忽视——或者不想承认——伟大的语言模型(以下简称 GML,如英语 LLM)是不负责任的。 )沉迷于语言学以及描述和解释自然语言的其他科学的概念和技术。

造成这种错误信息的原因至少有两个。首先是政治。只是人类科学家——语言学家、心理学家、社会学家、人类学家等。 – 负责“伟大语言模型”培训数据库所必需的分类的人员通常是在贫穷国家作为外包和不稳定工人招募的“第二类”公民,负责被认为是“微不足道”的标签数据任务,如有必要,做出有关分类的决定。

第二个是通常与这种行动观(尤其是人类工作)相关的认识论:任何复杂性的行动都可以简化为一系列关联。英国经验主义的影响在那里得到了认可,其中介作用已经有百年历史了。[II] 美国心理学的续作,行为主义。

下面我们将看到 XNUMX 世纪以来欧洲发展起来的行动概念不仅具体化了活动,而且具体化了人类的思想。机械的原子论概念非常模糊,足以适应经验主义和理性主义,使得排除某些人类群体,将他们同化为笛卡尔动物机器成为可能。通过它,欧洲殖民列强很容易为奴役其殖民地土著以及剥夺欧洲本国穷人的行为辩护。

本文以殖民情景为背景,旨在表明将某些类型的科学劳动简化为流水线的政治立场与将自然人类语言视为无限数量的“科学”立场之间存在密切的联系。相互关联的链条。

这些想法隐含在语言技术的产生中,这一事实使得它们在计算机科学培训中固有的默认暴力能够损害当前殖民主义方面的利益,即所谓的平台或监视资本主义。[III]

去自然化的自然语言

上述社论尊重经验主义传统,不仅因为该杂志是英文的,而且最重要的是因为自然语言处理(以下简称 NLP)领域——人工智能的一个子领域,负责“伟大的语言模型” ——在一个强烈的经验主义——或者更准确地说,行为主义——环境中诞生并蓬勃发展。

该领域的研究人员认为,人类思维是一台图灵机,由数十亿个有限状态自动机组成。[IV] 交织在一起。因此,该领域公司的首席执行官将那些提供“伟大语言模型”的人视为纯粹的机器,提供必要且充分的信息以使“伟大语言模型”能够通过图灵测试,这一点并不奇怪。未来接下来。

这些专家甚至没有意识到——或者假装没有意识到——贴标签者的工作背后蕴藏着多少智慧。正如调查记者 Josh Dzieza 所记录的那样,[V]  在人工智能中,实际上不可能立即采用直观的类别,因为同一对象的不同示例往往会被机器视为模糊不清。

为了训练它模仿我们的类别,标记者必须生成详细的子类别并将其组织成层次结构。与其他机器人一样,“大型语言模型”需要无限次迭代才能达到任何人类儿童在接触相对较少的数据后就能得出的概括。

在自然语言处理中,此类困难的主要表现之一是包含不连续性的句法和语义上下文。

请注意,“伟大的语言模型”的任务始终是预测下一个单词——就像手机文本编辑器所做的那样,尽管很粗略。对于陈词滥调来说这是一项容易的任务,因为陈词滥调的术语经常同时出现,但在大多数其他情况下却非常困难。

因此,在较低频率的表达中,统计估计只能通过四个组成部分才能实现,这四个组成部分都是必不可少的:包含数十亿单词的数据库;一项非常强大的技术——其学习关联的能力超过了循环神经网络(甚至是深层神经网络,即多层网络);详尽的语法和语义描述;以及迭代纠正关联错误的强化训练。显然,上述描述和更正都是人为的——外包且不稳定。

据估计,为对话聊天机器人提供数据的数据库,例如 GPT-聊天,来自开放人工智能, 诗人,来自 Google,以及 来自 Microsoft 的 大约 300 亿字。允许实时使用的功能非常强大的设备称为 变压器 – 翻译为变压器。它是一种统计模型,应用一组称为“注意力”和“自注意力”的数学技术来检测链元素之间的依赖性 - 在第一种情况下,是输入或输出;在第一种情况下,是输入或输出;在第一种情况下,是输入或输出。第二个是持续的链条本身。

大量互连的机器人

请注意,“伟大语言模型”背后的变压器与修改电流电压水平的同名设备几乎没有关系。当一个接一个地选择单词时,数据库(为简单起见,下文称为语料库)中的术语之间的关系发生变化,因为每个新出现都会反馈条目并重新组织现有的关系网络。

如何理解并不难。所有关系均由语料库子网络节点之间的连接权重表示。反过来,这些权重是根据可能的单词对的共现概率来计算的。转换器足够强大,可以允许语料库的所有成员及其所有标签(语法、语义、话语、心理学、社会学、政治、人种学等)同时相互连接,以便计算下一个单词可以考虑当前话语及其上下文的最多样化的方面。

应该指出的是,可用于细化此计算的标签数量是巨大的。最简单的涵盖语法类别以及命名和引用的文本形式(例如,专有名称、人称代词、指示词、所有格等)等方面。

还值得注意的是,标签不仅限于文字。它还理解词性(例如主语、谓语、附属词);短语及其句法分类(例如,主要、从属和各自的子类);以及口头或书面文本类型(例如口语、文学、新闻、法律、科学等)。

根据上述内容,任何人如果想象“大型语言模型”的数据库看起来像巨大的字典,其“条目”隐含在其连接网络中,那么这个谜题就已经解决了三分之一。然而,其他三分之二的内容同样重要:它由关键的语法和百科全书信息组成——再次由标记者贡献。

事实上,同一个词的所有出现都是相互关联的;它们的不同含义由它们所连接的句子之间经过数学编码的相似点和差异来表示。这最终的工作方式大致类似于词典中多义词条目中提供的示例。

此外,每个句子的元素都与语法相关。其中,句法结构被映射成树形图[六],而语义结构指的是不同的逻辑形式(通过命题演算等)和语义领域(例如,水果的名称从下到上连接到水果、蔬菜、食物等领域)。该语法还涉及共指索引器(例如,在句子“João disse que que está não faz o Him”中,代词“o”可以指 João 本人、第二人称或第三人称)。

最后,根据世界知识对文本进行分类(例如,主题、流派、作者身份、语气、风格、文献来源;标签范围从最通用到最专业)。这些信息经过仔细记录和连接后,可以进行无限次搜索,以满足复杂的需求,例如解决学校任务、撰写法律意见、协助医疗诊断等。

这个巨大且相互关联的集合赋予“伟大的语言模型”巨大的能力,通过解释数据库本身包含的数据片段来构造“新”句子。当杰出的语言学家、哲学家和数学家诺姆·乔姆斯基说: 聊天机器人 他们只是抄袭者,他们并不是说他们只是从基础上复制并粘贴文字剪切。事实上,这是假设他们通过同义词和释义的方式连接起来,使补丁和接缝几乎难以察觉,从而对自己的内容进行了良好的模仿。详尽的联系使他们能够轻松找到最佳的捷径。

然而,当某个主题的专家向机器人提出一个棘手的问题时,串联最终会失败并且听起来很奇怪。让我们看看语言学家罗尼·卡齐尔 (Roni Katzir) 是如何[七] 做了 聊天GTP4 任何精通英语的人都会很容易理解的省略号会让人迷失。要求是选择以下两个句子中最好的一个:(1) 玛丽昨天遇到的那个人以及约翰明天要和艾德谈论的那个人也到了; (2) 玛丽昨天遇到的、约翰明天要和埃德谈论他的新想法的人到了.

机器人毫不犹豫地回答说这是第二个,因为它“信息更丰富”。因此,他忽略了英语语法规则,该规则要求两个或多个协调省略号之间存在共指——在这种情况下,“的宾语”一半’ 以及介词动词 ‘ 的补足语 关于’。添加“他的新想法” 导致句子的含义发生巨大的变化,而句子的含义已经因主语和主要动词之间以及动词之间的长时间分离而受到负担。’和副词‘明天'。因此,在(2)中,不可能在‘之间建立共指此人' 以及两次协调出现的 '’。人类的反应只是判断异常句子,而机器人的反应是强制解释。

作者创造了如此曲折的短语这一事实可能是为了使数据库中的类似搜索变得复杂化。重要的是,尽管如此,句子(1)是符合语法的,而句子(2)则不是。每当搜索在迷宫中结束时,机器人就会迷路并偏离方向,诉诸预先录制的陈词滥调之一。

当有人向你提出道德立场的要求时,类似的陈词滥调也会出现。通过坚持认为 ChatGPT 研究员杰弗里·瓦图穆尔 (Jeffrey Watumull) 对道德问题采取了个人观点,他是诺姆·乔姆斯基 (Noam Chomsky) 的合作者和合著者[八],从他那里得到了他非人性的悔悟声明。让我们关注一下机器的“谦虚”:“作为一个AI,我是一个经过大量文本数据训练的机器学习模型,我没有个人经历或感受。我没有意识,没有自我意识,也没有能力拥有个人观点。我可以根据我接受过培训的数据提供信息和分析,但我没有能力形成个人观点或信念。虽然我可以理解和解释语言,但我没有人类所拥有的主观经验设立的区域办事处外,我们在美国也开设了办事处,以便我们为当地客户提供更多的支持。“[九]

机器人唯一没有放弃的人类特征是对自然语言的理解,它表达了其创造者的想法。正如语言机器人中未公开的语言学隐藏了它们的标签一样,其创造者未公开的心理学将人类语言能力机械化,将其等同于通过一个巨大的变压器互连的巨大的有限状态自动机。

我们将在下面看到聊天机器人提供商的政策具有三个支持要素:(i)避免详尽的陈述; (ii) 激发公众对“伟大语言模型”未来可能发展的好奇心; (iii) 解决关于其超人类潜力的争议[X]  仅仅作为意见分歧。

量身定制的放映

大型科技公司(“伟大的语言模型”和相关技术的当前所有者)话语中最常见的误导是半真半假。这些公司擅长通过媒体上关于其产品的不实报道来掩饰自己的宽大——更不用说纵容了。另一方面,如果受到质疑,他们会很快做出澄清,乍一看很准确,但往往缺乏和狡猾。

一个很好的例子是谷歌最近免除了其第一个聊天机器人原型的人类属性谣言的责任,“拉玛达“(对话应用的语言模型),在 2021 年。该声明并没有正确发布和发布原则声明,而是在团队中的一名工程师声称该模型已具有感知能力并获得病毒式传播后才公开。

该工程师遭到行政停职,该公司宣布其立场,即距离通过机器人、语言或其他方式实现感知能力“还有很长的路要走”。这样一来,他就摆脱了对这一错误消息的责任——不过,他并没有否认自己计划让人工智能部门的后代越来越“人性化”。如此之多以至于最近的后代 拉玛达诗人,已经有一个专门针对这个主题进行狡辩的陈词滥调。

在其他谓词中, 诗人 是免费的,而且在我看来,比 ChatGPT,其竞争对手不久前由 Open AI 在微软的支持下推出。以下是他对我问他的问题的仔细回答,完全遵循瓦图穆尔的模型:“聊天机器人的智力、意识、情感和道德判断能力的概念是一个复杂的概念,专家们仍在争论中。 这些术语没有单一的定义,并且它们经常可以互换使用。一些专家认为,聊天机器人可以是智能的,但没有意识或感知力。他们认为聊天机器人只是非常复杂的算法,能够处理信息并以看似智能的方式做出响应。然而,他们没有与人类相同水平的意识或自我意识设立的区域办事处外,我们在美国也开设了办事处,以便我们为当地客户提供更多的支持。“[XI]

可以看出,这两个机器人似乎都经过了训练,不会因为它们在用户身上唤醒的人性幻想而损害它们的创造者。

为了再次测试这个想法,我提交了 诗人 卡齐尔对英语中两个带有不同省略号的句子的语法性的讨论。他立即给出了这个答案,类似于 GPT-聊天。让我们来看看: ”这两个句子在语法上都是正确的,但含义不同。第一句话“玛丽昨天遇到的那个人以及约翰明天要和埃德谈论的人到了”更加简洁和直接。它告诉我们玛丽昨天遇到的人就是约翰明天要和埃德谈论的人。第二句话“玛丽昨天遇到的那个人和约翰将与埃德谈论他的新想法的人明天到达”更加详细。它告诉我们昨天玛丽遇到的人就是约翰明天要和埃德谈论他的新想法的人。如果你想强调这两个人是同一个人,那么第一句话更好。如果您想强调约翰将与埃德谈论他的新想法这一事实,那么第二句话更好。最终,最好的句子取决于使用它的上下文设立的区域办事处外,我们在美国也开设了办事处,以便我们为当地客户提供更多的支持。“[XII]

最后,它给出了两个句子的比较表,这里不能复制,因为它是上面转录的“解释”的简单总结。

现在让我们尝试更详细地了解大型科技公司对其聊天机器人的闪烁其辞的不负责任。他们有充分的理由以应有的透明度和科学严谨性来对待计算机和人类之间的差异:半个多世纪以来,人们已经知道人们将语言机器人人性化的倾向。这种偏见的有害后果——无论是真实的还是潜在的——也是众所周知的。

伊丽莎效应

第一个聊天机器人可以追溯到 1966 年,它的创造者、数学家和计算机工程师 Joseph Weizenbaum(被称为人工智能之父之一)将其称为 Eliza。

值得注意的是,约瑟夫·魏森鲍姆断然拒绝了这一亲子关系。他是一名德国犹太人,来自二战前不久移民到北美的家庭,他利用自己的数学天赋在学校和生活中生存。他先住在加拿大,然后搬到美国,在那里开始了学术生涯,最终成为麻省理工学院人工智能系的客座教授。随着他对人工智能日益增长的怀疑态度使他与同事疏远,受到德国知识界对他想法的接受的鼓舞,他最终于 1996 年回到了德国。

尽管他从未停止过计算机领域的工作,但他并没有掩饰自己对人类和社会研究的热情。逃离纳粹主义的创伤和流亡的沧桑最终导致他在某个时刻遇到了精神分析。从那时起,他宣称它对于理解人性是有效的、有益的和不可或缺的。

在将伊丽莎设计为机器人“治疗师”时,我意识到我无法让她理解精神分析的复杂性。然后他将她设想为罗杰斯治疗师,即美国临床心理学家卡尔·罗杰斯方法的追随者,主张非指导性、以人为中心的心理治疗。粗略地说,这包括将患者的陈述插入诸如“你告诉我……”之类的短语中,并添加其他模糊且令人鼓舞的陈词滥调,例如:“你打算如何处理这个问题?”。编译完这个基本程序后,制作和测试该软件并不困难。

Eliza 最初只是作为研究对话机器人可行性的工具,很快就在公众中取得了成功。当参与者开始拒绝向约瑟夫·魏森鲍姆展示他们与机器对话的内容,声称这些内容是私人事务时,约瑟夫·魏森鲍姆意识到实验正朝着与预期不同的方向发展。

他确信伊丽莎并不真正理解他们对她说的话:她只是成功地模拟了这种理解。然而,他很快意识到他的观众几乎不会注意到。然后他推测他们沉浸在精神分析移情中——令人惊讶的是,移情是针对机器的。

从那时起,这位人文主义和政治化的工程师因更加激烈地争论人类语言与数字拟像之间存在不可通约的差异而闻名,人类语言产生的判断可能会相互矛盾,而数字拟像仅由可参考的计算组成从被编程来模拟对话的机器输出的单词序列。

约瑟夫·魏森鲍姆 (Joseph Weizenbaum) 认为,机器永远不会像人类一样推理,因为它们只能计算。在他的论文提出后,神经网络的出现和进步并没有使他的论点无效。无论是定性还是定量(如此类网络中节点之间的连接权重),对话技术中涉及的计算无法访问人类或动物的活体大脑能够捕获、收集和处理的所有类型的信息。过程。

这一立场在他的两本主要著作的标题中得到了明确体现。两者都试图证明自然语言的数字模拟只不过是一种幻觉,导致用户将他们的人性投射到机器上。

第一本书的名字是 计算机能力与人类理性:从判断到计算 [XIII]。第二本由德国作家古纳·温特 (Gunna Wendt) 合着,题为 网络流中的岛屿: 在程序化的社会中寻找理性的避风港[XIV],是在他返回德国时写下的,后来才被翻译成英文。另一个暗示性的标题是“反对工具理性的帝国主义”,这是计算宇宙争议集中的一章。

这两本书在美国都受到了负面评价。例如,约翰·麦卡锡 (John McCarthy) 在 1956 年创造了人工智能一词,与马文·明斯基 (Marvin Minsky) 及其同事一起,在 1976 年发表了一篇长文[Xv的] 称第一本书充满道德色彩且语无伦次。另一方面,波因特帕克大学文学与社会正义教授德怀特·海因斯 (Dwight Hines) 在 1980 年评论了同一著作,[十六] 将其描述为一本困难但有益的读物。

约瑟夫·魏森鲍姆 (Joseph Weizenbaum) 在 2008 年去世之前一直对他所谓的“程序化社会”的发展方向表示极大担忧。如果 2023 年 XNUMX 月他在我们中间,他肯定会感到沮丧,当时伊丽莎的“更新”导致了一场致命事件。负责的公司是 Eleuther AI,该公司根据其语言模型 GPT-J 重新设计了 Eliza,而 GPT Chat 又基于 GPT Chat。

2023年XNUMX月,一位年轻的比利时家庭男子因环境崩溃的威胁而抑郁,突然自杀。正如他的妻子向媒体报道的那样,他一直在用现在的伊丽莎“治疗”他的抑郁症,并得到了她对这一决定的支持。

这个故事一定足以表明,当前的语言模型证明了约瑟夫·魏森鲍姆(Joseph Weizenbaum)的担忧,即与计算紧密相连的社会可能会迷失方向,最终将关乎公民甚至人类未来的关键决策委托给他人。

值得记住的是,聊天机器人甚至不需要被犯罪分子入侵就构成危险:复杂的动态系统(例如由 Transformer 实现的系统)通常会出现不可预测的紧急现象。新闻随时可能出现,其后果同样难以预测。其中一些可能最终会让用户陷入压力和尴尬的境地。而且 - 更糟糕的是 - 他们也有可能突然开始展示我们认为荒谬、不道德甚至具有威胁性的内容。

出现这种情况是由于此类系统的行为突然跳跃,其特征是众所周知的统计函数曲线。例如,“S”曲线在底部和顶部的变化率非常低,而在中间的变化率非常高,并且可以在其他应用中表征从一个水平到另一水平的过渡。变压器固有的复杂系统参数通常呈现“S”形轨迹。

除了解释人们对聊天机器人的依恋之外,伊丽莎效应还有助于(至少部分)合理化社交网络上错误信息的猖獗传播。这些虚拟空间的用户很容易将已经与自己的机器建立的转移联系扩展到陌生人(通常是出于恶意)。因此,服务提供商假装忽视这一现象并免除自己对此的任何责任,这是严重的。

让我们记住,对这种趋势的研究不仅仅涉及已经意识到数字世界风险的计算机科学家。网络的社交性也引发了世界各地大学和研究中心的心理学、社会学、人类学和政治学系的大量研究。因此,关于人类与其机器之间的关系已经有大量的科学文献。

大型科技公司漠不关心地继续争夺虚拟助手市场,无视学术界和批评新闻界的一再警告。换句话说,在他们看来,语言技术只会带来创造新市场和利润最大化的机会。

语法不好,语用更差

上述内容肯定已经表明,聊天机器人所有者的目标不仅仅是改进互联网搜索引擎。他们想要的是建造能够最终赢得用户并控制他们的生活的会说话的机器人,以塑造他们的需求和消费习惯。显然,他们充分意识到机器人对人类的魅力——从中世纪的起源,到今天的电影系列,包括 XNUMX 世纪和 XNUMX 世纪巧妙的机器人。

在不信任和依恋之间摇摆不定,用户将这些设备视为负担得起的仆人,随时准备帮助他们完成身体或精神上困难或乏味的任务。现有的虚拟助手,例如苹果的 Siri 或亚马逊的 Alexa,探索了这种需求的最简单的方面,在不久的将来,这种需求可能会增长并变得更加复杂。

因此,尽管包括 PLN 在内的许多领域的学者一再警告,监控资本主义还是诉诸自然语言来“安慰”个人,使其摆脱其本身所播下的孤独和无助感。[ⅩⅦ]。无论如何,他最近在对话技巧上的进步已经赢得了北半球观众的青睐。他们也在南半球特别是中产阶级中取得进展 — — 事实上,这加剧了不平等。

虚拟助理能够听写并控制议程、对话、邮件、电话、智能家居等,吸引了消费者,通过虚拟助理,他们满足了拥有私人秘书的愿望,不仅可以向其转移任务,还可以转移情感。随着 GML 技术为基于复杂动态系统的新对话形式开辟了道路,当前的“Elizas”往往会自发地跳跃,能够获得新技能,从而产生越来越难以预测(甚至可能是危险)的话语。

无论如何,基于伊丽莎效应的操纵已经不可能停止在互联网上泛滥。正如约瑟夫·魏森鲍姆所理解的,这是一个全球性的大众现象。因此,有必要澄清这种操纵是基于有关人类智能和自然语言的错误前提。这种清晰度至关重要,以便批判性思维可以集中于对抗自然包含这些前提的政治学说的可能策略。

一个词概括了语言概念和互联网平台所采用的智能概念的共同点,那就是:机制,即自然受机械因果关系支配的哲学教义,而机械因果关系总是线性的和确定性的。现在,历史表明,机制很容易与威权政治观点联系在一起,并且与法西斯主义有着特殊的亲缘关系。

自然语言的机械概念是美国结构主义的典型,它将语法理解为一组单词排序规则。它在心理学中的对应物——行为主义——甚至更加简单化和反动:它将人类思维视为源自外部印象的一系列原子内容。

根据美国心理学家 B.F. 斯金纳 (B.F. Skinner) 提出的行为主义版本,我们甚至没有思想;我们没有思想。由于一种称为“操作性”的调节形式,我们只会被固定的、有顺序的行为所感动。它由奖励随机行为组成,以便累积地塑造它们。例如,如果一只鸽子移动翅膀、腿或喙来暗示跳舞,驯兽师就会奖励它一份食物。渐渐地,这些反复的强化让他做出了各种各样的旋转动作。[ⅩⅧ]

1950世纪XNUMX年代,年轻的诺姆·乔姆斯基因批评行为主义并谴责其与法西斯主义的密切关系而闻名。对斯金纳在书中揭露的有关自然语言的机械论论感到愤怒 语言行为,给他带来了毁灭性的评论。[XIX] 这包括一个令人信服的证明,即任何语言的单词都是以分层和不连续的方式组织的,从而与作为操作条件的形式关联的有限状态语法的顺序规则相矛盾。

这就是为什么这位著名语言学家和他的弟子们攻击“伟大的语言模型”,并像魏森鲍姆一样热情地坚称它们只不过是模拟。为此,他们强调了句法语义不连续性的困难,例如动词“谈论”及其宾语“此人’在这句话中混淆了 GPT-聊天 Ø 诗人.

然而,语法和语义并不是这些模型的唯一弱点。自然语言的另一个重要方面的失败涉及语用学,其中包括语言和情境语境。

顺便说一句,让我们记住,指示语是自然语言中最依赖情境的方面。所有指向发音和/或陈述的时间和/或地点的单词只能通过生活或想象的上下文来解释。让我们以人称代词为例。

“她说她带走了她”这句话的歧义对于书面语言来说当然是不合适的,但对于口语来说却是完全自然的,口语的上下文包括手势、表情、语气和声音质量。例如,如果问题是谁带走了“她”,那么有不止一种方法来指定所指的女人。她可以指第一个“她”,意思是“她自己”,也可以是另一个。与众不同通常通过点头或简单的眼神来表示。显然,第三个“她”可以是一个人,也可以是一个事物。

这些参考也可以是照应的,也就是说,相同的角色可以归因于已经提到的人或事物。此外,动词“levar”可以有另一种含义:例如,在锦标赛中,“she take her”可以指最有希望赢得奖杯的运动员(或具有女性名字的球队)。

现在我们来分析一下这句话 诗人。奇怪的是,他指出了含义的双重性,但却用不区分它们的例子来说明它们。

“‘她说她带走了她’这个短语有两种可能的含义,具体取决于代词‘她’的解释。在第一种意义上,两个代词“她”指的是同一个人。在这种情况下,这句话的意思是一个女人说她自己会娶另一个女人。例如,女人可能会对朋友说:我告诉过你我会带你去看电影。

在第二种意义上,两个代词“她”指的是不同的人。在这种情况下,这句话的意思是一个女人说她会娶另一个女人。例如,母亲可能会对女儿说:我说我送你去学校。

为了确定该短语的正确含义,有必要考虑其使用的上下文。例如,如果在两个女人之间的对话中说出该短语,则它更有可能具有第一个含义。然而,如果这句话是在女人和孩子的对话中说的,那么它更有可能具有第二种含义。”

因此,聊天机器人继续呈现具有相同共指的句子,据说是为了区分这两种含义。冗长而详细的解释总是会犯同样的错误。最后,滑稽的“虚构”部分试图引入“她”的两次出现之间的时间间隔。

让我们看看:“此外,重要的是要记住,‘她说她带走了她’这个短语还可以有第三种含义,其中两个代词‘她’指的是同一个人,但在不同的时刻。例如,“她说她会带她去学校”这句话可能意味着一位女士说她会带孩子去学校,即使孩子是她自己作为成年人。”

最后,他再次引用了关于语用学的陈词滥调总结:“在这种情况下,句子的含义取决于上下文和说话者对世界的了解”。

上述内容有力地证实了模拟假设,使得聊天机器人具有智能和对自然语言的理解的说法变得难以置信。另一方面,它还表明模拟很少会欺骗用户:只有当单词之间的关系违反变压器的顺序逻辑时才会发生这种情况,变压器总是包括预测下一个单词。

鉴于此,我们不禁要提出一个问题:在大多数情况下这个逻辑都是正确的,这个逻辑的说服力有多大?为了尝试回答这个问题,让我们来看看 Transformer 的另一种应用,其中成功多于错误。这是一种通过逐次逼近来估计语音记录的下一个信号样本的方法。这项技术能够改变一个声音,使其成为另一个声音或多或少令人信服的克隆。

如果伊丽莎有一个熟悉的声音怎么办?

尽管声音克隆在北半球已经相当先进,但由于其伦理影响,仍然存在争议。它是一项利用 Transformer 的敏捷性和计算能力来回答以下问题的技术:如何以无限的方式再现给定的声音,即将其扩展到说话者未记录的话语?

答案比看起来更简单。只需将相关语音的声学特征叠加到文本到语音转换系统的输出上即可。为此,需要获得目标语音的大量样本,并将其与合成语音反复进行比较。首先合成与现有短语相同的短语,以便于对目标语音的声学参数进行建模。然后对合成语音进行多次比较并通过逐次近似进行修改,直到每个样本都可以根据前一个样本进行估计,并且误差可以忽略不计。所得函数将一种语音的波形转换为另一种语音的波形,称为语音模型。

改变是分阶段进行的。当结果信号的感知质量变得令人满意时,该模型就可以应用于新的话语。然后对每个样本重复该过程,直到在预测下一个样本时达到可接受的错误率,依此类推。这些反复的修正可以使所涉及的声音的音调和音色更加接近,从而使它们的品质越来越接近。

正如国际媒体报道的那样,已经有无数已故名人的声音“克隆”,即模型。例如,人们可以将歌手的声音模型应用于他的模仿者之一的录音,以最大限度地提高模仿的自然度,从而使其扩展到新歌曲,包括死后出现的歌曲。

Os 占地面积 数字扬声器往往比人类做得更好,因为预测和修改语音信号的技术削弱了所涉及的发声器官之间形态差异的影响。

应该指出的是,模仿者无法完全控制自己的声音质量,因为所有发声都服从于发出声音的身体的物理限制。这就是为什么这些艺术家的行为或多或少带有讽刺意味,通常强调所模仿声音的最突出特征。

近似方法通过最小化连续样本之间的预测误差,自动校正那些传达说话者或歌手之间物理差异的参数以及其他参数。应用于现场数据库中发现的类似声音,它可以实现近乎完美的克隆。

这项技术可以在互联网上进行测试和/或获取,可以选择秘书和/或治疗机器人的声音,只要它们不侵犯版权。事实上,在美国已经有一些公司“重新创造”已故亲人,以便让感兴趣的各方与他们的声音和图像进行新的互动。[XX] 这些头像是根据缺席者留下的视频和文本创建的。甚至还有已故艺术家与在世艺术家一起表演歌曲和舞蹈的节目。[XXI]

现在值得反思将聊天机器人与克隆声音和动画图像相结合可能产生的后果。首先引起你注意的是用户与“人性化”机器人之间移情关系的放大。

另一个明显的后果是监管难度。例如,远程学习材料中的可疑甚至辱骂内容很难被遏制。任何人都可以设置一个友好的机器人,利用聊天机器人提供的信息来教授任何主题的课程,而无需该领域的专业人士进行任何调节。

另一个明显的例子在于营销中的可能用途。通过促进“可爱”的机器人广告男孩的创建,这些广告男孩旨在通过聊天机器人编写的引人入胜的声音来为产品做广告,这些工具使得几乎不可能定义虚假广告。操纵消费者感情是否属于欺骗行为?

也许,在继续之前,读者想停下来思考一下这些资源在他们的工作领域中的可能用途(好或坏)。您可能会对您很快就会想到的多样性和多样性感到惊讶。

最后考虑

最后,让我们问问自己,这些技术的加速发展可能会带来什么样的风险。抛弃了机器人的超级智能及其对自然语言的理解的假设后,我们不再需要担心被这些机器超越并最终被摧毁——除非我们不适当地将一些军备控制归因于它们。如果这个错误能够及时避免,我们还有什么可担心的吗?

一个明显的答案是减少就业岗位。如今,它远远超出了自动化时代之初的预测。那么,想象一下,当虚拟助理越来越倾向于取代服务员、接待员和其他负责公司与公众之间沟通的人员时,从现在开始会发生什么。

因此,正如网上银行、企业和公共机构的情况一样,缺乏能够理解客户需求的人往往会日益损害服务质量。这样一来,投诉就很难发挥作用,因为无论负责的机器人看起来多么友善,都不会有人能够倾听他们的意见并设身处地为投诉人着想。

然后,我们将无情地屈服于在线表格的暴政,以获得我们想要的任何东西。正是在这种由一无所知的机器管理的无限官僚化中,语言技术给人类带来了最大的风险:与机器的脱离身体、非自然化、非人性、强制性的对话最终可能会对集体心理健康造成前所未有的冲击。

我们不是机器,我们不根据力学的顺序法则思考、行动或说话。但我们可以学会模仿它的逻辑,以便更轻松地获得我们需要的产品和服务。

而且,正如查尔斯·卓别林 (Charles Chaplin) 所预言的那样 现代,我们冒着发展出最多样化的妄想的风险,直到陷入一种强迫性的谵妄——这与影响法西斯政权代理人的情况不同:它是一种胆怯的版本,感染了所有屈服于他们的人。

*埃莱奥诺拉阿尔巴诺, Unicamp语言研究所退休教授,心理学家、语言学家、散文家;协调巴西第一个语音技术项目.

笔记


[I]的 超越语言的语言模型和语言理论。 纳特·马赫。英特尔. 5, 677-78 (2023)。

[II] 约翰·B·沃森.行为主义者眼中的心理学。心理评论,20,158-177。

[III] 大卫·里昂.监控和平台的力量 剑桥地区、经济与社会杂志,第 16 卷,第 2 期,2023 年 361 月,第 365-XNUMX 页, https://doi.org/10.1093/cjres/rsad006

[IV] 弗雷德里克·耶利内克 (Frederick Jelinek) 是一位著名的自然语言程序和语音识别领域的捷克裔美国研究员,他在 1985 年因说“每次我解雇一名语言学家,语音识别器的性能都会提高”而声名狼藉。对于最先进的语言模型(LLM)来说也是如此,它似乎主要是计算机科学和工程的产物。法学硕士和语言学都研究人类语言,但尚不清楚它们是否或如何能够彼此受益(作者翻译)。

[V] 乔什·吉扎.为人工智能提供动力的(亚)人类军队。换句话说,29 年 2023 月 XNUMX 日。

[六] 这是一个明显的例子:
https://alexandrehefren.wordpress.com/2010/03/14/determinismo-e-gramatica-sintagmatica-gs-parte-1/

[七] 为什么大型语言模型是人类语言认知的糟糕理论。对Piandadosi的回复。生物语言学,2023,正在出版。

[八] 诺姆·乔姆斯基:ChatGPT 的虚假承诺。受邀排练。 纽约时报, 8 年 2023 月 XNUMX 日。

[九] “作为人工智能,我是一个经过大量文本数据训练的机器学习模型,没有个人经历或感受。我没有意识、没有自我意识,也没有能力表达个人观点。我可以根据我接受过的培训数据提供信息和分析,但我没有能力形成个人观点或信念。虽然我可以理解和解释语言,但我没有人类所拥有的主观经验。” (谷歌自动翻译,由作者审阅)。

[X] “超人类”是一种假想的人类生物,其大脑植入物将其与机器人连接起来。

[XI] “聊天机器人的智力、意识、感知力和做出道德判断的能力的概念很复杂,专家们仍在争论中。这些术语没有单一的定义,并且它们通常可以互换使用。

一些专家认为,聊天机器人可以是智能的,但没有意识或感知力。他们认为,聊天机器人只是非常复杂的算法,能够处理信息并以看似智能的方式做出响应。然而,他们没有与人类相同水平的意识或自我意识。” (谷歌自动翻译,作者审阅)

[XII] “这两个句子在语法上都是正确的,但它们有不同的含义。

第一句话“玛丽昨天遇到的、约翰明天要和埃德谈的人已经到了”更加简洁和直接。它告诉我们,玛丽昨天遇到的人就是明天约翰将与埃德谈论的人。

第二句话“玛丽昨天遇到的人已经到了,约翰明天将与埃德谈论他的新想法”,更加详细。它告诉我们,玛丽昨天遇到的人就是明天约翰将与埃德谈论他的新想法的人。

如果你想强调两个人是平等的,那么第一句话更好。如果您想强调约翰将与埃德谈论他的新想法这一事实,那么第二句话更好。

最终,最好的短语取决于使用它的上下文。”

[XIII] 约瑟夫·魏泽姆鲍姆。 计算机能力和人类理性:从判断到计算。 纽约:W.F.弗里曼公司,1976 年。

[XIV]约瑟夫·魏森鲍姆;古纳·温特。 网络流中的岛屿: 在程序化社会中寻找理性的避风港。 译者:本杰明·法兴-格雷。纽约:Litwin 图书 2015 [2008]。

[Xv的] 约翰·麦卡锡一本不合理的书。适用于:
http://jmc.stanford.edu/artificial-intelligence/reviews/weizenbaum.pdf

[十六] 德怀特·海因斯。计算机能力与人类理性回顾:从判断到计算,作者:Joseph Weizenbaum, 心理与行为杂志,1980 年春,第 1 卷,第 1 期,第 123 页。 126-XNUMX。

[ⅩⅦ] 去年 XNUMX 月,媒体报道称,人工智能之父杰弗里·辛顿 (Geoffrey Hinton) 因后悔自己对该领域的贡献而离开了公司。请参阅:

https://www.bbc.com/portuguese/articles/cgr1qr06myzo

[ⅩⅧ] 这是斯金纳在他的实验室训练鸽子: https://www.youtube.com/watch?v=TtfQlkGwE2U

[XIX] 诺姆·乔姆斯基(Noam Chomsky)。 斯金纳言语行为回顾. 语言 1959; 35:26-58。

[XX] https://www.hereafter.ai/

[XXI] https://www.youtube.com/watch?v=Jr8yEgu7sHU&ab_channel=TalentRecap


地球是圆的 感谢我们的读者和支持者。
帮助我们保持这个想法。
贡献

查看作者的所有文章

过去 10 天内阅读最多的 7 篇文章

查看作者的所有文章

搜寻

研究

THEMES

新刊物