首先,一个必要的免责声明:不要使用人工智能语言生成器来解决你的道德困境。第二:一定要把那些困境告诉这个由人工智能驱动的Reddit模拟,因为结果令人着迷。

正如你的混蛋吗(AYTA)顾名思义,它是为了模仿Reddit的r / AmITheAsshole(AITA)众包建议论坛而建造的。该网站由互联网艺术家莫里斯·科尔曼(Morris Kolman)和亚历克斯·彼得罗斯(Alex Petros)在Digital Void的资助下创建,可让您进入一个场景并寻求有关它的建议 – 然后生成一系列反馈帖子来回应您的情况。反馈在捕捉真实人类生成响应的风格方面做得非常好,但具有许多AI语言模型产生的奇怪的,略带外星人的偏差。以下是它对经典科幻小说《路边野餐》情节的回应:

即使撇开我进入的前提的怪异之处,它们也倾向于不完全符合提示的陈词滥调 – 但写作风格和内容一目了然是相当令人信服的。

我还要求它解决去年有争议的“糟糕的艺术朋友”辩论:

前两个机器人对那个机器人更加困惑!虽然,公平地说,很多人也是。

您可以在专用于该网站的子reddit上找到更多示例。

AYTA实际上是三种不同语言模型的结果,每种模型都在不同的数据子集上进行训练。正如该网站所解释的那样,创作者从2020年开始捕获了大约100,000个AITA帖子,以及与之相关的评论。然后,他们在数据的不同切片上训练了一个自定义文本生成系统:一个机器人被喂食了一组评论,结论是原始海报是NTA(不是混蛋),一个机器人被给予了确定相反的帖子,还有一个混合的数据,包括以前的两组数据以及声明没有人或每个人都有错的评论。有趣的是,几年前有人制作了Reddit的全机器人版本,其中包括建议帖子,尽管它也产生了明显更超现实的效果的提示。

AYTA类似于早期的Ask Delphi工具,该工具还使用在AITA帖子上训练的AI(但与受雇受访者的答案配对,而不是Redditors)来分析用户提示的道德。然而,这两个系统的框架是相当不同的。

“这个项目是关于不良数据教会人工智能的偏见和动机推理。

Ask Delphi含蓄地强调了使用AI语言分析进行道德判断的许多缺点,特别是它对帖子的语气而不是内容的反应频率。AYTA更明确地说明了它的荒谬性。首先,它模仿了Reddit评论者的狡猾风格,而不是一个无私的仲裁者。另一方面,它不会给出一个单一的判断,而是让你看到人工智能如何推理出不同的结论。

“这个项目是关于坏数据教AI的偏见和动机推理,”科尔曼在公告线程中发推文说。“有偏见的人工智能看起来像是三个模型,试图解析一种情况的道德细微差别,其中一个只看到人们互相称呼对方为混蛋的评论,而另一个模型只看到人们告诉海报他们完全正确的评论。与纽约时报最近的头条新闻相反,人工智能文本生成器并没有精确掌握语言;他们只是非常善于模仿人类的风格—— 尽管并不完美,这就是乐趣所在。“一些最有趣的反应并不是那些明显错误的反应,”科尔曼指出。“他们显然是不人道的。

原文标题:This AI clone of Reddit’s Am I The Asshole forum will give you the best bad advice

原文链接:https://www.theverge.com/2022/4/20/23033694/are-you-the-asshole-ai-reddit-clone-art-project-ethics-aita

作者:Adi Robertson

编译:LCR