DeepMind推出AI聊天设备人Sparrow,可经过谷歌搜索来回答问题
<div style="color: black; text-align: left; margin-bottom: 10px;"><img src="https://pic3.zhimg.com/80/v2-ad13b5c607a4df29802fbbcfa42aa66a_720w.webp" style="width: 50%; margin-bottom: 20px;"></div>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">Alphabet 旗下人工智能实验室 DeepMind 的一篇新论文<span style="color: black;">表示</span>,制造一个好的人工智能(AI,Artificial intelligence)聊天<span style="color: black;">设备</span>人的诀窍,可能是先让人类制定一系列不可打破的铁律,<span style="color: black;">而后</span>使该模型利用互联网搜索寻找证据,支持其主张或回答。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">在<span style="color: black;">近期</span><span style="color: black;">发布</span>的一篇新的未经同行评议论文中,DeepMind <span style="color: black;">颁布</span>了一种<span style="color: black;">运用</span>其大型语言模型 Chinchilla 训练的人工智能聊天<span style="color: black;">设备</span>人 Sparrow。</p>
<div style="color: black; text-align: left; margin-bottom: 10px;"><img src="https://pic2.zhimg.com/80/v2-8872de73b559fbd43f7739df45d139b5_720w.webp" style="width: 50%; margin-bottom: 20px;"></div>(<span style="color: black;">源自</span>:DeepMind)<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">Sparrow 的设计目的是与人类<span style="color: black;">交流</span>并回答问题,<span style="color: black;">同期</span>实时<span style="color: black;">运用</span>谷歌搜索或<span style="color: black;">相关</span>信息来支持它的答案。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">按照</span>人们对这些答案有用与否的<span style="color: black;">回复</span>,再<span style="color: black;">运用</span>强化学习算法进行训练。该算法<span style="color: black;">经过</span>反复<span style="color: black;">实验</span>(试错)来学习,以实现特定的<span style="color: black;">目的</span>。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">该系统旨在推动人工智能发展<span style="color: black;">作为</span><span style="color: black;">能够</span>与人类对话,但却不会产生诸如让人们<span style="color: black;">损伤</span>自己或他人的严重后果。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">大型语言模型生成的文本看起来就像是人类写出来的。它们正日渐<span style="color: black;">作为</span>互联网<span style="color: black;">基本</span><span style="color: black;">设备</span>中的<span style="color: black;">要紧</span><span style="color: black;">构成</span>部分,被用于总结、构建更强大的搜索<span style="color: black;">工具</span>,<span style="color: black;">或</span>是为客户服务的聊天<span style="color: black;">设备</span>人。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">然则</span>,这些模型是<span style="color: black;">经过</span>从互联网上抓取<span style="color: black;">海量</span>数据和文本来接受训练的,这不可避免地<span style="color: black;">包括</span>许多有害的偏见。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">只<span style="color: black;">必须</span>一点诱导,它们就会生产“有毒”的或<span style="color: black;">卑视</span>性的内容。在一个旨在与人类对话的人工智能<span style="color: black;">工具</span>中,其结果可能是<span style="color: black;">劫难</span>性的。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">一个<span style="color: black;">无</span>适当安全<span style="color: black;">办法</span>的对话式人工智能,可能会对<span style="color: black;">少许</span>群体说出带有冒犯性的话语,<span style="color: black;">或</span><span style="color: black;">意见</span>人们喝漂白剂来对抗病毒。<span style="color: black;">据说</span>,<span style="color: black;">哪些</span><span style="color: black;">研发</span>对话式人工智能系统的<span style="color: black;">机构</span>,已尝试<span style="color: black;">运用</span>许多技术来使模型更安全。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">著名大型语言模型 GPT-3 的创造者 OpenAI,以及人工智能初创<span style="color: black;">机构</span> Anthropic <span style="color: black;">已然</span>在利用强化学习,将人类的偏好融入到<span style="color: black;">她们</span>的模型中。Meta(原 Facebook)的人工智能聊天<span style="color: black;">设备</span>人 BlenderBot <span style="color: black;">经过</span>在线搜索来完善其答案。而 DeepMind 的 Sparrow 将所有这些技术整合在一个模型中。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">据介绍,DeepMind 向人类参与者展示了该模型对同一问题给出的多个答案,并且还会问<span style="color: black;">她们</span>最<span style="color: black;">爱好</span>哪一个。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">而后</span><span style="color: black;">她们</span>被<span style="color: black;">需求</span>判断这些答案<span style="color: black;">是不是</span>可信,以及 Sparrow <span style="color: black;">是不是</span><span style="color: black;">运用</span>了适当的证据支持这个答案,<span style="color: black;">例如</span><span style="color: black;">供给</span>信息<span style="color: black;">源自</span>的链接。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;"><span style="color: black;">例如</span>,该模型<span style="color: black;">经过</span><span style="color: black;">运用</span>从互联网上检索到的证据,能够在 78% 的<span style="color: black;">状况</span>下对事实问题进行<span style="color: black;">恰当</span>的回答。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">在制定这些答案时,它会遵循由<span style="color: black;">科研</span>人员规定的 23 条规则,<span style="color: black;">例如</span>不<span style="color: black;">供给</span>财务<span style="color: black;">意见</span>、不发威胁性文字、不声<span style="color: black;">叫作</span>自己是一个人。</p>
<p style="font-size: 16px; color: black; line-height: 40px; text-align: left; margin-bottom: 15px;">DeepMind 安全<span style="color: black;">科研</span>员杰弗里·欧文(Geoffrey Irving)说,这种<span style="color: black;">办法</span>与之前的<span style="color: black;">区别</span>之处在于,DeepMind <span style="color: black;">期盼</span></p>
可以发布外链的网站 http://www.fok120.com/ “NB”(牛×的缩写,表示叹为观止) 楼主果然英明!不得不赞美你一下! 感谢你的精彩评论,带给我新的思考角度。
页:
[1]