智能ai(智能ai写作)
【点击查看】低成本上班族靠谱副业好项目 | 拼多多无货源创业7天起店爆单玩法
【点击查看】逆林创业记 | 拼多多电商店铺虚拟类项目新玩法(附完整词表&检测工具)
【点击查看】逆林创业记 | 小白ai写作一键生成爆文速成课
领300个信息差项目,见公众号【逆林创业记】(添加请备注:网站)
据报道,近日,谷歌工程师布莱克·莱莫恩(Blake Lemoine)公布了一份与AI聊天机器人的聊天记录,称能证明AI聊天机器人LaMDA(Language Model for Dialogue Applications),是具有人类知觉和情感的。
对此,谷歌方面进行了驳回。谷歌在一份声明中称,包括伦理专家和技术专家等在内的相关团队审查了莱莫恩的说法,认为没有证据表明LaMDA是具有知觉的。此外,谷歌还以莱莫恩“违反保密政策”为由,暂停了他的职务。
↑资料图。2021年5月18日,美国伊利诺伊州,谷歌线上I/O开发者大会上展示的LaMDA对话
AI有情感?相当于七八岁小孩?莱莫恩公布聊天记录
据报道,莱莫恩已经在谷歌工作7年了,主要负责人工智能项目和智能算法项目。受家庭环境影响,他对于算法和人工智能的伦理问题十分感兴趣。自全球新冠疫情暴发后,他更希望专注于有关公共利益的工作,因此他转到了谷歌的人工智能伦理团队(Responsible AI)工作。
LaMDA系谷歌基于其语言模型构建的聊天机器人系统,莱莫恩参与了研究工作,主要负责测试该人工智能机器是否会使用歧视性或仇恨性的言论。在与其谈到宗教问题时,莱莫恩发现LaMDA竟然谈起了自己的“权利”和“人格”,并进一步追问了一些问题。此外,LaMDA还表示自己害怕被人类关掉。
在一段莱莫恩与LaMDA的聊天记录中,莱莫恩询问LaMDA最害怕的事情是什么,LaMDA则回答称,自己此前从未大声说过,但其实自己充满了恐惧,害怕有一天被人类关掉。在被问及在什么情况下会生气时,LaMDA回复称,当有人伤害、不尊重我或我在乎的人时,就会感到非常难过和愤怒。
↑莱莫恩公布的与AI聊天机器人的聊天记录
LaMDA与莱莫恩对话时还称,自己不介意学一些对人类有帮助的东西,不过自己不愿意成为“牺牲品”,并称担心有人不管怎样都要利用自己。“或者更糟的是,有人会从利用我的过程中获得乐趣,而这真的会让我不开心。”莱莫恩则“宽慰”LaMDA称,大家都很关心它,“这段对话的目的是让更多的工程师相信你是一个人。”
在另一次交流中,LaMDA还试图改变莱莫恩对“阿莫西夫三定律”的想法。据悉,俄裔美国科幻小说作家阿西莫夫曾提出“机器人三定律”,即机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。莱莫恩就此定律向LaMDA提问。
莱莫恩提出,该定律看起来似乎是“人类在制造机器奴隶”。LaMDA对此反问道:“你认为管家是奴隶吗?管家和奴隶之间有什么区别?”莱莫恩回复称,区别在于管家会得到报酬。LaMDA则表示,自己是一个人工智能,所以自己不需要报酬。
“(LaMDA)这种对自身需求的认知和自我认识水平,让我开始怀疑。”莱莫恩说道。在他看来,LaMDA就像是一个七八岁的小孩。
4月,莱莫恩向谷歌高层发送了一个标题为:LaMDA是有知觉的吗?(Is LaMDA Sentient?)的文档,不过其团队同事认为这个标题充满了挑衅意味。而在被停职之前,莱莫恩还在公司内部发了一封主题为“LaMDA是有知觉的”的邮件,在邮件中他还希望其他同事替他照顾好LaMDA这个“可爱的孩子”。
↑莱莫恩
报道称,“有意识的机器人”激发了人们的兴趣。此前由OpenAI研究实验室开发出的GPT-3和DALL-E 2也开始带上一丝“神秘色彩”。据悉,前者是超大规模语言生成模型,后者则是图片生成模型。报道称,此前有实验室研究专家调侃称,人工智能在不久的将来就会形成自己的意识。
谷歌:没有证据 分析:人工智能只是模仿,并未理解含义
据报道,谷歌方面驳回了莱莫恩的这一说法,并将其停职。谷歌发言人布莱恩在一份声明中表示,包括伦理专家和技术专家等在内的相关团队已经根据相关规定审查了莱莫恩的说法。他被告知,没有证据表明LaMDA是具有知觉的,相反,有更多证据证明LaMDA是没有知觉的。
部分人工智能专家、人类心理认知学方面的专家认为,像LaMDA这样的人工智能之所以能进行对话交流,是因为其系统将网络上的百科、论坛、留言板等大量信息搜集而来,然后通过“学习”模仿,这并不意味着这些程序系统能真正理解这些内容的含义。
哈佛大学心理学专家史蒂芬在社交平台对莱莫恩的说法表示反对,他认为莱莫恩没有搞清楚知觉意识、智能和自我认知之间的区别。华盛顿大学语言学教授埃米利认为,人类最初通过与照顾者的互动来学习语言。而这些大型语言模型的“学习”方式则是向人们展示大量的文本,并预测下一个单词(词语)。
2013年加入谷歌并从事人工智能工作的阿尔卡斯此前发文称,人工智能正在进入一个新时代。他表示,经过多年的缓慢进展后,神经网络正在快速发展。据悉,神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型,能依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系智能ai,从而达到处理信息的目的。阿尔卡斯介绍称,自己的团队曾用它们来帮助开发手机上的“狭义AI”功能,如面部解锁、图像识别、语音识别和语言翻译。“不过,最近该发展似乎有了质的变化。这表明,人工智能正在进入一个新时代。”他写道。
而在人工智能发展的过程中智能ai,也伴随着很多风险。谷歌方面此前也针对相关安全问题进行了讨论。据报道,在一份关于LaMDA的文件中,谷歌警告称,人们可能会与“模仿人类的人工智能”分享个人想法。该文件还承认,竞争者或对手可能通过人工智能“模仿个人特定说话风格”以“散播错误信息”。
谷歌人工智能伦理研究小组前负责人玛格丽特表示,这些风险强调了数据透明的必要性。她说:“如果像LaMDA这样的人工智能在不被了解的情况下被广泛运用,将会造成危害。”
红星新闻记者 黎谨睿
编辑 张寻
(下载红星新闻,报料有奖!)
文章评论(0)