本文来自微信公众号:APPSO (ID:appsolution),作者:发现明日产品的,原文标题:《自称本世纪最重要的 AI 网站,满屏都藏着一个词:「bullsh*t」》
打开一个看似由哈佛、全球AI安全研究机构背书的网站,你会以为自己进入了一个拯救人类的严肃计划。
结果……你在这个页面上多停留了十几秒,页面背景悄悄浮现出一个单词:「bullsh*t」。
没错,这不是什么未来学术的研究所,就是一个一本正经的恶搞网站。
它自称「AI对齐中心的对齐中心」(Center for the Alignment of AI Alignment Centers,CAAAC),名字拗口得恰到好处,听起来就像是,那种只有业内顶尖专家才会懂的前沿研究机构。
但它并非真的在研究AI,而是在研究那些研究AI的人。
网站链接:https://alignmentalignment.ai/
一本正经的胡说八道
这个网站有多离谱呢,bullsh*t这个彩蛋只是开胃菜,CAAAC网站真正的荒诞,还藏在更细节的地方。
尽管CAAAC并不是第一个用幽默,来挑战科技行业的例子,但它的执行力令人印象深刻。
首先是网站首页的设计,完全模仿真实的AI实验室,甚至链接到了真实的研究机构。他们在链接机构的地方写着「完全不属于下面的AI对齐组织,但是我们的设计师说,这些机构的标志放在这里,可以让我们的网站看起来更好。」
向左滑动查看更多内容,提供了常见AI研究网站该有的内容,包括新闻博客更新、最新研究报告
其次是离谱的工作机会,和一般的实验室招聘公告一样,里面有详细的工作描述。
但是当你仔细看里面的内容,会觉得这简直就是在胡说八道。
为了解决所谓的AI对齐的对齐危机,他们宣布其全球员工将「专门从湾区招聘」,申请加入的条件之一是,你必须相信通用人工智能(AGI)将在未来六个月内消灭所有人类。
上下滑动查看更多内容
虽然离谱,如果你真的相信,他们在招聘;然后点击立即申请的按钮,会被直接「Rickroll(meme文化)」——链接到YouTube视频,开始播放《Never Gonna Give You Up》。
你以为自己要开始填写一份申请表单,结果下一秒直接被送进了舞池。
点击申请职位,会自动跳转到这个恶搞视频。Rickrolling是一种网络恶搞(meme/互联网玩笑),核心玩法就是,你以为点开的是一个很相关、很重要、甚至很严肃的链接,结果却突然跳转到Rick Astley的歌曲《Never Gonna Give You Up》官方MV。
此外,他们提供了一个生成式AI工具,让我们可以在「不到一分钟,无需任何AI知识」的情况下创建自己的AI中心。
当然,这个所谓的开源工具,也是根本就不存在,所谓的一分钟创建一个AI中心,就是给我们生成一个名片。
APPSO的名片
这些细节无疑制造了一种强烈的反差感,在一个向来是以严谨和高深自居的领域,突然出现这么多「不正经」的内容。
所以问题来了:他们到底在讽刺什么?为什么要认真做这么一个玩笑?
讽刺谁?AI对齐研究的现实与迷思
首先,什么是「AI对齐」?
简单来说,AI对齐(AI Alignment)是指让AI按照人类价值观和目标行事。它在行业内,已经发展成为一个(有点模糊的)研究领域,充斥着政策文件和用于比较模型的基准。
今年7月份,前英特尔CEO帕特·基辛格(Pat Gelsinger)在芯片行业工作了40年退休之后,与一家「信仰科技」(Faith Tech)公司Gloo合作,共同推出了一项名为「Flourishing AI」(FAI)的新基准,专门用来评估AI对人类价值的对齐程度。
图片来源:https://gloo.com/flourishing-hub/research
他们提出的方法,是从健康、经济、幸福、以及信念等7个维度,设计了1229道题目,使用人类专家评审对这些大语言模型的回答进行打分。
除了行业巨头的老板,7月底的时候,加拿大更是直接出资100万美元,支持英国AI对齐研究项目。
英国AI安全研究所首页,https://www.aisi.gov.uk/(严重怀疑CAAAC的网站设计参考了这个,同样的线条)
英国AI安全研究所提出的AI对齐项目,汇集了包括加拿大人工智能安全研究所、施密特、亚马逊(AWS)、Anthropic等多家全球机构,目的是开展一项全球性倡议,确保AI以可预测的方式运行。
听起来这样的研究,确实有点道理。毕竟,没人想看到一个不受控制的AI做出毁灭性的决策。
但问题是,这个领域有点「跑偏」了,而这些研究机构也正是CAAAC要讽刺的对象。
The Verge就这个「对齐AI对齐研究员」的网站,采访了一位机器学习研究员和技术律师肯德拉·阿尔伯特Kendra Albert。
Albert说,许多AI对齐研究员沉迷于「理论化风险」,比如AGI(通用人工智能)何时接管人类,而忽略了眼下的现实问题:AI偏见、能源消耗、就业替代等等。
这种「理论化」的风险确实如它的名字一样,都是停留在书本上。
作者Nate Soares(左)和Eliezer Yudkowsky,书名:「If Anyone Builds It,Everyone Dies:Why Superhuman AI Would Kill Us All」(如果有人建造它,所有人都会死:为什么超人类AI会杀死我们所有人)
九月初,根据《旧金山纪事报》报道,AI领域的两位知名学者埃利泽·尤德科夫斯基(Eliezer Yudkowsky)和内特·索阿雷斯(Nate Soares),在他们即将出版的新书《如果有人建造它,所有人都会死》中发出警告,超级智能AI的崛起,可能导致人类灭绝。
CAAAC的讽刺,就是针对这点,与其花时间和精力研究AI会不会导致人类灭亡,不如睁开眼看看,现实世界当前的种种问题。
这些荒诞的设计,无一不在挑战AI对齐研究行业的过度严肃和复杂化。
恶搞网站创始人Louis Barclay在接受the Verge采访时说,「这个网站,是本千禧年或下一个千禧年中,任何人阅读关于人工智能,最重要的内容。」
Louis Barclay个人网站首页
暂且不知道他是不是真的这样认为,还是只想尽力保持他自己的人设,因为该网站的另一位创始人,在接受采访时要求,不要公开他的名字。
我们还看到了,Louis的另一个产品,是来自他们团队attention.to在本周二推出的盒子The Box。这是一个工具,用来避免女性的形象,被迫变成AI生成的深度伪造垃圾。
而这个产品的形态,竟然就是一个字面意义上的物理盒子,官方提到,女生们可以在自己约会的时候佩戴,来保护自己的形象。
关于定价,则是针对盒子要显示的内容,有不同的订阅费用。它们提供了做你自己、老板、闪耀的明星、男人、以及NSFW的亲密之盒,五种类型。
看到这,你是不是对这个产品有了点兴趣,但是,这也是假的(我也被骗到了)。
这也是Louis Attention团队制作的另一种讽刺,他们看到AI让制作深度伪造色情视频,变得更加容易和便宜,而其中99%的目标是女性,所以决心做点什么引起大家的关注。
在盒子的预订页面写着,「这个盒子是一种警告,对我们未能遏制深度伪造泛滥的世界,可能存在的荒诞假设。」
和CAAAC网站一样,虽然最后发现是玩笑,但在一个过于正经的行业,或许只有玩笑才能让人停下来思考。
笑过之后才发现,最需要align的,是那些谈align谈到忘了现实的人类。
欢迎加入APPSO AI社群,一起畅聊AI产品,获取#AI有用功,解锁更多AI新知
我们正在招募伙伴
简历投递邮箱hr@ifanr.com
✉️邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
相关推荐
自称本世纪最重要的AI 网站,满屏都藏着一个词:“bullsh*t”
“T”链的底层逻辑
满屏放屁的网络戾气从哪里来?
由人工智能生成的网站面世,新闻业要变天了?
这款超硬核的游戏,蕴藏着微软实现复兴的巨大野心
20万小城商家的生意里,藏着智能硬件的进化路径
用AI写作,最重要的是学会与AI对抗
小米的T字生态
个人思考:未来互联网最重要的创新方向是什么?
AI明星失速:活下来,比什么都重要
网址: 自称本世纪最重要的AI 网站,满屏都藏着一个词:“bullsh*t” http://m.xishuta.com/newsview141818.html