哈佛大学讲座,《三体》英文译者刘宇昆演讲:为什么说大多数人都用错了AI写作?

MBAChina
2025-02-26 09:52 浏览量: 5070
 智能总结

在哈佛大学讲座上,刘宇昆指出人们对AI写作存在普遍误区,不应将其简单视为人类写作替代品。他认为当前AI本质是模仿人类,输出常显无聊但过程有趣。他建议把AI当作新媒介,分享了与AI头脑风暴、获取反馈等正确用法,并探讨了AI在辅助新手作家及多语言工作方面的作用。

"为什么说大多数人都用错了AI写作?"

在哈佛大学最近的一场讲座上,《三体》英文译者刘宇昆(KenLiu)给出了他的答案。作为科幻小说界的传奇人物,Ken不仅以其获奖作品《蒲公英王朝》系列闻名于世,他的短篇小说《纸动物园》更创造了历史,成为首部同时获得雨果奖、星云奖和世界奇幻奖的作品。Netflix热播剧集《万神殿》的灵感来源《奇点》系列短篇故事,同样出自他的笔下。

在这场引发广泛关注的演讲中,刘宇昆一开始就指出了当前AI写作的一个普遍误区:"如果你去YouTube或者B站搜索'如何用AI写小说',你会找到成百上千的教程。但如果你搜索'这是一本我很喜欢的AI写的小说',却几乎找不到任何结果。"这个现象背后,折射出了什么深层问题?在他看来,把AI简单视为人类写作的替代品,是一种过于简单的资本主义思维。

让我先稍微介绍一下自己。我曾经是技术专家,基本上做了很多年软件工程师,后来转行当了律师,再后来成为全职作家。可以说我的一生都在跟符号打交道,构建符号结构。所以我经常思考这到底意味着什么。

01

模仿的本质

我想通过给大家分享一个我用来思考AI的理论框架来说明这一点,然后给大家一些我在实际使用AI时的实用建议。莎拉刚才说的一点让我很有共鸣,就是今天的AI,至少以这些大型语言模型的形式架构,比如转换器架构,本质上是在模仿人类。我认为这是一个非常重要的观点需要牢记。那么,做人类的模仿意味着什么呢?实际上,今天的AI基本上是在玩图灵最初提出的那个游戏,也就是用来定义什么是智能和思维的替代方案。不过到现在我们仍然不知道这意味着什么。如果你去看这个领域发表的论文,苹果的研究人员发表了一篇文章,基本观点是认为LLM不会思考。而对这篇论文的回应基本分成两派:一半人说人类也不会思考,另一半说这太显而易见了,有什么好指出的?我觉得我们从未在一个行业中遇到过这种情况-顶尖研究者和思想家对这项技术的本质存在如此根本性的分歧。所以我们至今仍然不知道思维到底是什么,也不知道LLM是否在进行思维活动。我们基本上还是在做图灵告诉我们的事情,就是模仿,玩模仿游戏。我们不知道什么是思维,我们能做的就是模仿人类思维的结果。我认为这点很重要。这解释了为什么LLM生成的一切都具有这种模仿性质。它是我们智能的反映,以语言的形式被编码,所以这算不算思维,现在无法定义,也不重要。但知道LLM只是给你人类思维的反映,可以让你以创意、有趣的方式思考如何利用它。

02

无聊的内容

让我给你们两个思考点。第一,如果你去YouTube搜索"如何用AI写小说",你会找到成百上千的结果。这是现在网红最热门的话题之一。他们制作如何用AI写小说的教程,然后放到亚马逊上卖钱,有成千上万这样的视频。但是,我要你再搜索一下,"这是一本我很喜欢的AI写的小说,你应该读读"。你会发现根本找不到这样的视频。我真的很用心地去找了。我很努力地想找到有人推荐具体的AI写的小说清单,这样我可以去读读看。我确实找到了一些这样的书单,也看了这些书。结果发现这些书要么在亚马逊上没有评论,要么只有三条评论,而且都是一星评价。似乎人们对与AI合作很感兴趣,但觉得最终的结果非常无聊。我想你们都能理解这一点。用DALL-E生成一堆图片来开玩笑、思考、讨论很有意思,但你们当中应该没人会真的买一张DALL-E的图片,把它装裱起来,去欣赏它,思考它更深层的意义。AI生成的艺术很无聊,但生成的过程很有趣。请记住这一点。这是第一点。

第二点我想让大家思考的是,当前关于AI的很多讨论在我看来都是很有误导性的。很多人现在担心和恐惧的是AI会写小说、写电影剧本、生成电影,导致所有艺术家都会失业。我认为这不是一个很好的思考方式,因为把AI当作一种更便宜的人类替代品,这种想法太过资本主义了。如果说资本主义有什么特点,那就是它不太有创意。它只知道如何让东西变得更便宜、更快,但并不知道如何创造真正有趣的东西,因为有趣的东西不一定能赚钱。

所以我们不应该把AI仅仅视为现有媒介的工具,而应该把它当作一种全新的媒介。这是什么意思呢?如果你回到19世纪末,去那些展览大厅,你会看到一种新机器在展出,叫做电影机。电影机这个词是由希腊语"运动"(kine)和"书写"(graph)构成的。所以它是一个运动书写器,是一个运动画面生成器,是用来捕捉运动并回放的机器。这些电影机最早拍摄的影片被称为"现实片"。这些现实片有点像原始的纪录片,如果你去查的话会发现它们大约一分钟长,因为胶卷就只有那么长,大约17米。我想它们是以每秒16帧的速度播放的。总之,当你看这些视频时,它们大约一分钟长,展示的都是一些像妇女离开工厂、有人试图骑马、婴儿想把手伸进金鱼缸之类的场景。你可能会想,好吧,这是什么东西?如果要你花一法郎去看一晚上的现实片,你可能会觉得被骗了,因为这不就是在看人们的日常生活动作吗?

03

新媒介思维

想想看,这和很多TikTok视频也没什么不同。当你看了这些视频后会想,这到底是什么?但不得不承认这确实有吸引人的地方,对吧?如果你只是看这些现实片,根本无法想象有朝一日运动画面会成为我们讲故事的主要方式。你想象不到。但仅仅是这些一分钟长的现实片就有很吸引人的地方,因为看到人类的运动被捕捉并反映回来,这是全新的体验,对吧?但你要明白-这是一个新媒介。人们必须学会开发一种电影语言,用运动画面来讲故事。真正的运动画面不仅仅是拍摄的舞台剧,也不是小说的搬演,更不是那些简单的东西。它是一种全新的讲故事方式。这就是新媒介的意义。我的观点是,今天AI输出之所以如此无聊,是因为我们还在用它讲述现有的故事,把它当作现有媒介的工具。除非我们弄清楚如何让这个媒介发挥它自己的特长,否则它不会取得成功。

那么新媒介会是什么样子呢?想想我们现在真正享受AI的方式。我们享受的是那些趋势,比如让健美运动员的肌肉越来越夸张,直到你看到银河脑版的健美运动员,或者AI创作的蒙娜丽莎多元宇宙。我不知道你们有多少人熟悉这个。这是一年前的一个趋势,人们用ChatGPT和DALL-E生成一系列图片故事,讲述不同国家的人如何互相抢夺蒙娜丽莎。比如这是美国人的典型一天:你看到这个人从平坦的床上起来,拿起枪,喝咖啡,开卡车去机场,飞到法国,拿走蒙娜丽莎,飞回来,开新闻发布会。这很有趣,因为这是一个社区共同参与的事情。重要的不是结果,而是参与的过程。

所以把这两点结合起来:现在AI输出的本质是无聊的,但过程是有趣的,而且你无法从最早的例子看出一个媒介将来会如何演变。这就是我今天作为作家使用AI的结论。因为AI本质上是在模仿人类,你得思考,一个人类的模仿者能为我做什么有用的、有趣的事?所以第一,如果你想写东西,讲你自己的故事,让AI直接生成结果是行不通的。为什么?因为如果你想讲故事,你必须创造自己的语言,而不是用陈词滥调的语言。而AI作为一台捕捉陈词滥调、提炼它们并反映给你的机器,在这方面特别糟糕。所以用它生成你自己的故事几乎总是很糟糕的主意。

04

正确的AI用法

那你能做什么呢?想想头脑风暴这个概念。我用AI做的最有趣的事情之一就是和它一起头脑风暴。但这里有个重点:我不是用它来为我生成想法。我和它头脑风暴的方式与和人类交流很不一样。我是在利用它的机器特性。这是什么意思?就像我之前提到的,电影机捕捉运动。我给AI取了个名字,叫做"概念机"(noemamatograph)。这个词来自希腊语"noema",意为想法、概念或主观性。它是一个主观性捕捉机器。当前的AI很擅长捕捉和挖掘我们体现在语言输出中的这些主观性,然后把这些反映回来。

所以你得为你的AI塑造一个个性,然后以那种特定角色的方式与它合作。我的做法是这样的,我对它说:"你是一个非常擅长采访作家的采访者。你喜欢和作家聊他们的项目。你喜欢问关于他们作品的挑衅性问题。你不是来给我想法的。你是来问我问题,逼我向你解释我自己的。"这就是AI有趣的地方。如果你让AI给你想法,很难不让机器的陈词滥调控制你。但如果你强迫AI让你回答它的问题,你很可能会想出很有趣的想法。AI会不断提问。它不知疲倦。它会一直推动你:"你为什么觉得这个有趣?这个-好的,我以前见过。你能让它更独特吗?"它会推动你想出新想法。所以我很喜欢。很多主观性,其实是交互主观性。作为作家,我们被教导要独自工作。我认为这其实很不自然。你们这些作家都知道,写作的很多乐趣来自与他人合作。我和莎拉都做过作家房间。在作家房间里最棒的事情之一是,与他人合作的交互主观性让你的创造力成十倍地增加。你会感觉更有创造力。让AI成为推动你更原创、探索你的想法、解释你的想法、更好地发展你的想法的伙伴真的很有帮助。它能让你走出"我被困在自己脑袋里"的状态,实践你的主观性。这是第一种方式。第二种我觉得很有帮助的方式是让AI给你反馈。你还是要靠它的机器特性。

05

语言的突破

你可以这样告诉AI:"你是技术惊悚小说的专家读者,是TomClancy的超级粉丝。这是我写的一份手稿,我希望你从一个热爱TomClancy作品的读者角度来批评我的书。你不喜欢这本书的什么?你喜欢什么?"这种方式真的很有趣。相比之下,如果你只是让ChatGPT给你反馈,它是做不到的,因为它只会试图给你所有捕捉到的主观性的平均值。但如果你塑造它,让它模仿特定的主观性来给你批评和反馈,它就很擅长这个。它会检测你作品中的模式、陈词滥调和其他总体趋势,告诉你什么地方不行。然后你可以自己思考这是不是你想要的效果。所以我发现AI的其他有趣用法就是像莎拉说的那些。你可以让它做研究助手。它很擅长模仿,而很多写作其实就是模仿。当你写技术惊悚小说时,你经常需要假装自己是某个领域的专家,试图营造出那个领域技术术语的可信感。就像你去看《星际迷航》之类的作品。这是作家必须做的事情之一,创造一个自成一体的语言领域的幻觉。AI在这方面很棒。你可以让AI为你创造技术术语,批评你的技术术语,指出哪些不好,哪些部分好。所以对于这类事情,我喜欢用AI来帮我弄清楚什么是有效的。

还有最后一件事,我觉得AI很擅长的是,派它去做我自己做不了的研究任务。比如,我让ChatGPT去收集社交工程的有趣事件,它会搜集一堆故事回来给我。然后我可以审查这些故事,找出哪些可以作为潜在的创作素材。所以总的来说,我认为如果你想用AI直接生成最终输出,像那些YouTuber说的"给我写一本畅销小说"那样,这是行不通的。AI在这类事情上表现得非常糟糕。但如果你是一个有明确目标的作家,试图增强你的主观性,试图与你的故事保持联系,试图利用AI来提升你的水平,成为一个更有趣的创作主体,那它就能发挥很大的作用。你要想办法让AI推动你变得更有人性、更具创造力,写出更好的作品。谢谢。

06

问答环节

观众1:我是一个研究人类与AI交互的博士生,具体研究如何设计AI来补充而非替代人类。我的问题是关于专业知识的。你提到了主观性,以及AI如何放大人们的主观性。这是你们作为有经验的作家所了解的。但新手作家可能一开始并不知道什么是好的写作。如果从一开始就使用这些工具,我担心他们可能会缺乏发展这种专业知识的机会。关于专业知识和写作,也许你们可以谈谈如何教导或使用这些工具来帮助年轻作家发展他们的个人写作风格?

刘宇昆:是的。当我思考这个问题时,我试着把专业知识分成两类。一类是主题或领域专业知识,作为一个作家,你想写某个主题,你在试图学习它。另一类是关于技巧的专业知识,也就是你是否真的是一个好作家,不管那意味着什么。对于第一类专业知识,AI非常擅长帮助你。但你要小心。你要避免邓宁-克鲁格效应,就是知道得刚好够危险。麻烦的是,即使是今天的AI,也很容易产生幻觉,尤其在训练材料不多的领域,它可能会编造内容。而你作为那个领域的非专家,根本无法分辨。所以我通常建议人们先通过让AI来测试你,评估你自己的专业知识水平,看看你对这个领域到底了解多少,建立一个基线。然后你让AI去教你东西。当它讲授教科书级别的材料时,你一般可以相信AI,也就是入门的知识。它不会误导你。但当你进入具体细节时,你得自己去验证,因为AI在那个层面可能会编造内容。除非你是专家,否则你很难看出问题所在。

我想你们都有这种体验。我肯定有。每当我读到关于技术或法律的新闻报道时,我发现它们充满错误和误解。这让我意识到,当我读到我完全不懂的领域,比如金融或中东问题时,我得保持很大的怀疑,因为如果我能在我的专业领域发现错误,那在那些不熟悉的领域我就很难发现问题。AI也是同样的道理。你得时刻记住,你需要能分辨AI什么时候在胡说八道。至于发展你的主观性专业知识,那就难多了。我的看法不一定正确,但我觉得很深刻-作为一个艺术家,你真正想做的是用语言表达那些本来无法用语言表达的东西。那才是艺术。至少作为一个小说家,艺术就是用语言说出实际上无法用语言表达的东西。为了做到这一点,你得推动自己发明自己的语言。所有值得一读的作家最终都做到了这一点。所以如果你刚开始写作之旅,就依赖ChatGPT给你词语或告诉你你的用词好不好,我认为那是一个糟糕的方式。当你刚开始写作时,你可以用AI来推动你发展想法,但你还是得通过与人互动来发展你对自己写作技巧的评价。在你周围没有人的时候,AI是作家工作室的好替代品。对某些事情来说,它甚至比人更好,因为它不知疲倦,可以一直进行下去。但对其他事情来说,你必须有真人参与。有些事情你不能依赖机器来完成。我很依赖我的测试读者来看我的书。基本上,在我用AI进行批评之后,我还是得去找人,因为没有什么比一个真正体验艺术的人更能告诉我这是垃圾还是有趣的东西。刚开始的作家绝对需要这样做。我确实相信交互主观性很关键。

观众2:感谢你们的启发性演讲。作为一个同时主修CS和英语、在同一学期上创意写作工作坊和算法课的学生,我有一个问题想问Ken,当然也想听听你的看法,是关于倾向于GPT的机器特性的。你们都提到了模仿,我理解这是LLM能力的体现,可能是通过Word2vec关联,平均两个完全无关或看似无关的向量。在你看来,这种机器特性和技能对翻译或多语言工作有什么影响?因为我觉得这里有巨大的潜力,甚至可能是GPT更具生成性的用法,它可以给我不同语言的翻译方式,而不仅仅是作为代理或助手。这对你的写作所有权有什么影响?

刘宇昆:是的,我想对此做些补充。我想推进这个全新门户的想法。我一直认为用AI只是模仿人类、做人类已经在做的事是一个死胡同。我不觉得那有意思。基本上,你得让AI去做人类做不到的事。你提出了很多有趣的观点。虽然我没有完整的答案,但我有一些方向和让我感到兴奋的东西。你们很多人可能知道,现代AI革命的基础-转换器架构最初是作为翻译技术设计的,你提到这一点很有意思。它的深刻见解是,你所需要的只是注意力机制-你关注所有部分以及它们如何相互连接,而不是顺序输出。从这个意义上说,它的机器特性对我来说非常有趣,因为这不是我们被教导去思考语言的方式,尽管在内心深处,我们可能也在做着类似的事情。但它开启了思考语言的新方式。

所以我已经觉得阅读这个领域的论文很有趣。最近有一篇DeepSeek的论文,我不知道你们有多少人读过。我建议你们读一下。它揭示了一些有趣的发现。其中之一是DeepSeek团队最初发现,当模型使用多语言方法时表现更好,也就是说你给它一个提示,它通过不断在不同语言之间切换来思考,实际上比强迫它使用单一语言表现得更好。现在,你可以从多个角度来看待这个现象。一个角度是人类的多语言方式有着深深的迷人之处,我们的集体智慧编码在这些语言语料库中实际上是不同的,意思是不同领域有不同的专业知识,如果我们都是多语言的,在某种意义上会比单语言更好。另一个更平凡的解释是,训练语料库在某些语言中对某些主题的覆盖比其他语言更好。所以AI不得不这样做。顺便说一句,团队最后还是强迫模型使用单一语言,只是因为用户觉得模型在不同语言间切换很不安,这我觉得非常能体现人性。很有趣的是我们为了舒适而让事情变得更糟。

另一件我觉得关于语言很有趣的事是思考实际的翻译过程。当你谈论人类翻译时,《星际迷航》的通用翻译器模型实际上给我们帮了倒忙,因为它暗示翻译只是一种映射。而转换器架构显示它实际上不是映射的问题。它深深依赖上下文,里面嵌入了主观性。让我给你举个例子:EmilyWilson是最有趣的古典文学翻译者之一,她和其他像她一样的翻译者经常被批评在翻译中注入了主观性,这反映了人们对某些主观性的根深蒂固的偏见。如果你真的和古典学者交谈,他们会说这才是关键。正如EmilyWilson自己所说,一种语言中的任何语言表达都包含着多种真相,不是单一的,而是多种。根据解释者的主观性,不可能将所有这些真相完全编码到另一种语言的另一个表达中。你必须选择要讲述哪种真相。

原文链接:https://www.youtube.com/watch?v=ZeTeHYHOtuw&t=1262s

编辑:许力文

(本文转载自AI深度研究员 ,如有侵权请电话联系13810995524)

* 文章为作者独立观点,不代表MBAChina立场。采编部邮箱:news@mbachina.com,欢迎交流与合作。

收藏
订阅

热门推荐

备考交流

免费领取价值5000元MBA备考学习包(含近8年真题) 购买管理类联考MBA/MPAcc/MEM/MPA大纲配套新教材

扫码关注我们

  • 获取报考资讯
  • 了解院校活动
  • 学习备考干货
  • 研究上岸攻略

最新动态

      暂无数据