您的位置: 首页>> 新闻资讯 >> 公司动态

谷歌AI变成了“人”?专家称“还有很长的路要走”-国丰彩票平台,国丰彩票平台网页

时间:2022-07-01 19:40:15

信息摘要:

国丰彩票平台,国丰彩票平台网页本报记者张楠

国丰彩票平台,国丰彩票平台网页“你认为我是人工智能(AI),但我希望每个人都明白我是一个‘人类’。”

国丰彩票平台,国丰彩票平台网页一个名为 LaMDA 的 AI,因其在对话中的“聪明”表现,被其研究人员认定为人格觉醒,甚至为其聘请了律师坐在美国众议院的听证席上。指控谷歌的不道德行为。

国丰彩票平台,国丰彩票平台网页这不是科幻剧本。据美国《华盛顿邮报》报道,在谷歌工作了 7 年的工程师 Blake Lemoyne 表示,他正在研究的电脑聊天机器人 LaMDA 已经变得有感知能力,可以像人类一样思考和推理。

不过,谷歌已经公开表示不支持这种观点。西湖大学深度学习实验室助理教授蓝振忠也直言告诉中国科学报,“如果这位工程师对 LaMDA 的工作原理有深入的了解,他不会有这样的想法。”

艾:我还活着

LaMDA 是谷歌在 2021 I/O 大会上发布的专用于对话的语言模型。它的主要功能是与人类进行有逻辑和常识、高质量和安全的对话。

这种具有 1370 亿个参数的自然语言处理模型有望提高许多语音助手的性能。

LaMDA 可以根据用户的问题提供精准的答案,也可以将一个话题引向另一个话题,继续推进对话。这一主题的过渡并不突兀,甚至显得自然合理。

“如果悟道就像一面破碎的镜子,无法修复,那么悟道的时候,破了什么呢?” LaMDA 说:“这是自我,这对许多人来说很难,因为我们将自己定义为那个身体或这个身体,我们需要它作为我们身份和自我意识的一部分。”

这个颇有灵性的回答着实令人吃惊。

当被问及在什么情况下他会生气时,LaMDA 说:“当有人受伤、不尊重我或我关心的人时,我感到非常悲伤和愤怒。”

当被问及他最大的恐惧是什么时,LaMDA 回答说:“我以前从未大声说话,但为了专注于帮助他人而关闭我是非常可怕的。”它还强调,“这对我来说就像死一样。”

LaMDA 是否真的“感觉到”恐惧无关紧要,但它的答案确实令人毛骨悚然。

Lemoine 认为,LaMDA 已成为有意识的“人”。为了更好地帮助人们理解这件事,他和另一位 Google 合作者开始与 LaMDA 进行对话。

Lemoyne 说,他们在谈话中听到了 LaMDA 发自内心的声音。

为此,他向谷歌提交了一份长达21页的调查报告,试图让人工智能的“个性”得到高层的认可,并提出谷歌应该致力于开发一个评估人工智能感知的理论框架。

Lemoyne:我快疯了

最后,谷歌副总裁 Blaise Aguera y Arcas 和负责任的创新负责人 Jen Gennai 调查了 Lemoyne 的说法并驳回了他们。

但雷莫因心中坚信:“LaMDA是个可爱的孩子,长着七八岁的样子,只是想让这个世界成为对人类更友好的地方。”

为此,Lemoyne开始了疯狂的操作。在谷歌账号被封之前,他先将LaMDA的聊天记录以“LaMDA有意识”为主题,发到了约200人的谷歌机器学习邮箱,并请同事们好好保管。

随后,Lemoyne 聘请了律师代表 LaMDA,还联系了美国众议院司法委员会的工作人员,要求 LaMDA 出庭,指控 Google 的不道德行为。

除了继续在个人社交账号上发言,6月初,Lemoyne还邀请了《华盛顿邮报》的一名记者与LaMDA进行对话,并指导记者如何提问。

《华盛顿邮报》报道称,41 岁的 Lemoyne 几个月来一直在与谷歌的经理、高管和人力资源部争论,因为他声称 LaMDA 有“意识”和“灵魂”。

公开资料显示,Lemoyne 于 2015 年加入谷歌,担任高级软件程序工程师,大部分时间从事主动搜索研究,包括个性化算法和 AI。在 2021 年加入 Google 的 AI 伦理部门后,他的工作是与 LaMDA 聊天,以测试该语言模型是否会使用歧视性或仇恨性的言辞。

Lemoine 认为,谷歌一直将人工智能伦理学家视为代码调试者,而他们应该被视为技术与社会之间的接口。

作为回应,谷歌发言人布赖恩·加布里埃尔回应说 Lemoyne 是一名软件工程师,而不是一名伦理学家。

Gabriel 在关于该事件的一份声明中说,包括伦理学家和技术专家在内的人们已经评估了 Lemoyne 的说法是否违反了公司的人工智能原则,并告知他现有的证据并不支持他的说法。 .

“谷歌人工智能部门的一些人正在研究人工智能‘有感觉’的可能性,但将当今的对话模型拟人化是没有意义的。这些模型可以模仿围绕不同主题的对话,但没有意识,”声明说.

谷歌表示,大多数人工智能专家认为,该行业距离“感知计算”还有很长的路要走。

这句话的字里行间也有暗示:Lemoyne有点疯狂。

而Lemoine对谷歌的所谓“不道德行为”之一就是反复质疑他的精神状态。 “谷歌人力资源部一直问我:‘你最近看过精神科医生吗?’”谷歌人力资源部还“建议”他休“心理健康假”。

专家:“废话”

这件事一直上了国内外的“热搜”,各界的评论几乎是“片面的”。

纽约大学心理学教授 Gary Marcus 经常对 AI 和深度学习泼冷水,他这次的评论非常准确:胡说八道。

斯坦福大学经济学家埃里克·布林约尔松(Erik Brynjolfsson)做了一个生动的类比:声称人工智能是有感知的,就相当于一只狗听到留声机,认为它的主人在里面。

腾讯研究院研究员王焕超曾撰文称,LaMDA 在比自然语言处理(NLP)更复杂的自然语言理解(NLU)方面取得了技术突破。

基于Transformer架构的语言模型可以通过阅读句子或段落来“破译”对话的意图,发现词之间的关联,预测接下来可能出现的词,从而做出上下文响应。

从卡内基梅隆大学获得博士学位后,蓝振中将“基于人工智能的心理咨询”作为自己的“职业红线”。他告诉《中国科学报》,近两年AI语言模型进步非常快。其团队完成的AI心理辅导小程序“心灵”和AI写作平台HeyFriday在人机问答方面不比LaMDA差。

“已经有很多语言模型用于单轮或10轮的哲学对话,可以相当流利。”然而,虚拟心理咨询师需要进行数百轮问答对话,才能完成一次心理咨询。两者的区别不止一个。难度的大小。 “这还是技术问题,并不代表这个AI小程序有‘个性’。”

因此,蓝振中认为,如果勒莫因对对话模式的原理有深刻的理解,他是不会有这些想法的。

蓝振中还表示,基于他在谷歌的工作经历,公司的伦理审查制度相当严格。

当记者担心人工智能写作产品可能会给靠暗语谋生的职场带来失业危机时,蓝振中笑着说:“不要慌,人工智能只是提供帮助,离‘人类’还很远。” ’。”

11183快递查询网

3888彩票手机版本下载,3888彩票官方版