导读:🅷 DeepMind 制定 “机器人宪法” 🄸 ChatGPT 正试图取代安卓手机上的谷歌助手应用 🄸 《科学》期刊将采用人工智能技术检查图像欺诈行为 » »
本文字数:1242,阅读时长大约:2分钟
作者:硬核老王

#1 DeepMind 制定 “机器人宪法”

DeepMind 机器人团队透露了三项新进展,称它们将帮助机器人在野外做出更快、更好、更安全的决定。其中一项包括利用 “机器人宪法” 收集训练数据的系统 AutoRT,以确保你的机器人办公助理能为你拿更多的打印纸 —— 但又不会撞死碰巧挡路的人类同事。“机器人宪法” 的灵感来自艾萨克·阿西莫夫(Isaac Asimov)的 “机器人三定律”,是一套 “注重安全的提示词”,指示大型语言模型避免选择涉及人类、动物、尖锐物体甚至电器的任务。
(插图:DA/2347dd10-7e48-4fcf-a73b-7e51e1dd3d10)
消息来源:The Verge点此复制链接
老王点评:非常好奇这套提示词是什么。

#2 ChatGPT 正试图取代安卓手机上的谷歌助手应用

安卓手机上的“谷歌助手”是默认的助手应用,它可以通过电源按钮或手势启动应用,并且可以读取当前屏幕的文本和图像进行处理。通常情况下,助手应用在安卓系统中是全系统可用的,但这并不是谷歌的私房菜——所有这些都是通过公共 API 实现的,从技术上讲,任何应用都可以成为安卓手机上的助手应用。ChatGPT 应用正在开发对这些 API 的支持,用户将可以把 ChatGPT 应用设置为全系统范围的助手应用,让它可以在安卓系统的任何地方弹出并回答用户的问题。
(插图:DA/c9fcb3c5-d011-4f59-9d70-972c424c3edb)
消息来源:Ars Technica点此复制链接
老王点评:原本谷歌开放助手应用的 API,是不用太担心用户使用其它的助手应用的,但是 ChatGPT 如果成为默认助手应用,不知道谷歌会怎么想。

#3 《科学》期刊将采用人工智能技术检查图像欺诈行为

我们看到的许多基于图像的欺诈行为都源于许多科学家面临的一个难题:进行实验不是问题,但实验产生的数据往往不是你想要的数据。由于数据来之不易,而欺诈者往往又很懒惰,他通常会对图片进行旋转、放大、裁剪或改变亮度/对比度,并在同一篇论文中多次使用。并不是每个人都这么懒,但这种图片循环使用的现象非常普遍,所有证据都在论文中,而一旦被指出,通常很容易就能发现。本周四,研究出版商《科学》宣布,其所有期刊将开始使用商业软件 Proofig,利用人工智能识别研究手稿 PDF 文件中的图片,自动检测被不当篡改的图像。
(插图:DA/590562b9-46b3-43e8-af23-3317e3959a1c)
消息来源:Ars Technica点此复制链接
老王点评:一方面论文拒绝 AI 的参与,另外一方面论文又需要 AI 来帮助找到作弊。
昨日观察
关注 Linux 中国,每日硬核点评
欢迎遵照 CC-BY-SA 协议规定转载,
如需转载,请在文章下留言 “转载:公众号名称”,
我们将为您添加白名单,授权“转载文章时可以修改”。
继续阅读
阅读原文