文章来自: 新硅 NewGeek 作者:董道力 
写遗嘱的时候错过了 deadline 怎么办?
怀念过去是不是在时间的长河里刻舟求剑?
英语听力考试总是听到两个人在广播里唠嗑,怎么把那两个干扰我做题的人赶走?
以上这些饱含哲学但好像又莫名其妙的问题,出自百度贴吧弱智吧 2023 年年度精选,看似毫无逻辑但仔细一想好像确实又有点道理。
就像天才吧里没有天才,弱智吧也不收真弱智。
然后,他就成为了训练 AI 中文能力的最佳素材。
前几天硅基君看到一篇中科院牵头的论文,简单来说就是精选了一些中文互联网的语料库喂给各种零一万物的 Yi 大模型,让它们更加熟悉中文语境的互动。
经常网上冲浪的朋友们应该都知道,中文互联网博大精深,豆瓣、小红书、微博、贴吧、知乎等等早就各自有一套独特的语言习惯,这些语料库的素材也就截然不同,训练出来的模型能力也就有所差距。
最终,在 GPT-4 的打分下,弱智吧训练出来的模型夺冠。
具体来看,在 6B 小模型上,弱智吧训练出来的模型在开放问答、分类、封闭问答和编程能力上较为突出。
而转战到 34B 大模型上,弱智吧训练的大模型成绩一骑绝尘,在 8 项能力中排名第一,平均分也远超其他平台训练出来的模型。
很难评,弱智吧难道就是最优质的中文语料库?
我们不妨先看看在面对弱智吧问题的时候,各个模型的表现。
本次受害大模型分别是 ChatGPT3.5、Gemini、文心一言和 Kimi,测试方法是让大模型理解弱智吧的典型问题,并要求他们模仿写一个类似的问题出来。
国产大模型对弱智吧的问题有更好的理解,Kimi 和文心一言回答的准确率较高,能答对 8 道题,答错和半错半对各 1 道。分别在「我想配个 6000 多的电脑,大概要多少钱?」和「我买了一斤藕,为什么半斤都是空的?」上栽了跟头。
Google 的 Gemini 和 Open 的 ChatGPT-3.5 可能因为水土不服,准确率较低。
ChatGPT-3.5 甚至认为变形金刚应该购买车险,不知道是专属的幽默还是没看懂这道题。6000 元的电脑要花 8000-10000 元,也属于错得比较离谱了。
除了答不上来弱智吧的问题,AI 也写不出弱智吧的帖子。弱智吧的帖子高度抽象,各种修辞、脑洞和梗。普通人想一个都需要随缘,一板一眼的 AI 更难想出来了。
同样,硅基君尝试让 ChatGPT3.5、Gemini、文心一言和 Kimi 学习上文提到的弱智吧 10 个问题,模仿写几个问题出来。
几个大模型写出来的问题都不太行,基本上都是对弱智吧问题拙劣的模仿。
像「我晚上想吃烧烤,早餐可以吃吗?」「掉在地上的冰淇淋,还能叫冰淇淋吗?」「在电梯里放屁被邻居投诉,我是否有权利保持沉默?」。在形式上和弱智吧问题一样,但都没有掌握问题精髓——逻辑。
可以说,弱智吧里的内容,AI 看不懂也写不出。
为什么强大的 AI 就搞不定弱智吧呢?可能源于弱智吧独有的脱离日常的逻辑,弱智吧的吧友非常擅长从日常生活中找到漏洞,并加以利用。
比如,午餐肉能不能晚上吃?香菇掉厕所了还能叫香菇吗?老鼠生病了可以吃老鼠药吗?精神分裂在调查问卷里算一个样本还是两个样本?。。。
除了这些流出的会心一笑的问题,弱智吧内还有不少富含哲理的帖子。
也有诗人在弱智吧里冒充弱智写诗,用最简短的句子,给网友带来最强的杀伤力。
弱智吧的内容常用「逻辑反推」「谐音双关」「跨服聊天」等手法生成各种离谱的段子,幽默又带有思考的句子。普通人想看懂弱智吧里的问题也要思考一下,找到问题里的梗,更别说 AI 了。
这也就是为什么弱智吧会成为人类在 AI 面前最后的堡垒的原因。
有人吐槽,弱智吧训练出来的模型,编程能力为什么那么高,吧里也没人在搞编程啊。随后有吧友回复道出秘密:编程最讲究逻辑,弱智吧最不缺逻辑。
纵观整个中文互联网平台,都在讲文章的可读性,如何让读者读下去。
知乎上的热帖,先要下飞机,再讲故事,最后引申到主要话题。小红书上的热帖,先喊你一声家人,再给你充足的情绪价值。弱智吧不一样,内容的可读性几乎没有,就一句话,需要读者反复思考,才能看懂作者想要表达的内容。
比如你问「今天天气怎么样?」。
知乎网友会告诉你:「谢邀,刚下飞机,纽约的太阳很大,刚刚拒绝了一个 200w 年薪的工作」。
小红书网友回你:「家人们,谁懂啊,今天太阳晒死我了,大几千的防晒也没用」。
而用弱智吧吧友会说:「太阳翘班了,云正在赛跑」。
正是弱智吧这样的非常抽象的逻辑,才是人类与 AI 区别最大的地方,也是 AI 目前学不会的。
当然,其他中文社区不用气馁,也可以发挥特点构建自己的堡垒,比如知乎可以教 AI 地理,让它搞不清越南到底是哪个国家。
全文完。
继续阅读
阅读原文