人类的独特视角和创造力是AI不可替代的
T:OpenAI的聊天机器人提供转述,而Google提供引用。我们更喜欢哪个?
C:是选择转述的答案还是引用的答案取决于各种因素,包括具体的使用情况和受众。
在某些情况下,转述的答案可能是首选,因为它们提供了一个简洁和易于理解的信息摘要,同时仍然传达了主要的观点。当用户正在寻找一个问题的快速答案,或者需要了解大量信息的要点时,这可能特别有用。
在其他情况下,引用的答案可能是首选,因为它们提供了一个更准确和精确的信息表述。例如,当用户为研究论文或为验证目的而寻找准确的引用时,引用的答案可能更有用。
最终,对转述或引用答案的偏好可能取决于用户的具体需求和背景。这两种方法都有其优势和劣势,能够获得这两种选择可能是有用的,这样用户就可以选择最符合他们需求的方法。
T:2013年,德国一家建筑公司的工人们注意到了他们的Xerox复印机有些奇怪的地方:当他们复制一幢房屋的平面图时,复印件与原件有微妙但重要的不同。
在原始平面图中,房屋的三个房间各有一个矩形指定其面积:分别为14.13,21.11和17.42平方米。然而,在复印件中,所有三个房间都被标记为14.13平方米的大小。公司联系了计算机科学家David Kriesel调查这个看似不可想象的结果。
他们需要一位计算机科学家,因为现代的Xerox复印机不使用上世纪60年代普及的物理喷墨复印技术。相反,它通过数字方式扫描文档,然后打印出结果图像文件。再加上几乎所有数字图像文件都被压缩以节省空间,解决谜团的方法开始浮现出来。
C:是的,这是对的。当扫描平面图时,房间的面积被存储为浮点数字,也就是带有小数点的数字。然后当图像被保存为文件时,这些数字被压缩。在压缩过程中,这些数字被四舍五入到较少的小数位,导致它们都变成了 14.13,而不是原来的值。
这个例子显示了数字过程如何在数据中引入错误和假象,即使这些数据是为了精确地表示一个物理对象。重要的是要意识到这些潜在的错误,并有系统来检测和纠正它们。
**T:**压缩文件需要两个步骤:首先是编码,在编码过程中,文件被转换为更紧凑的格式,然后是解码,即该过程被逆转。如果恢复的文件与原始文件完全相同,则称压缩过程为无损压缩:没有任何信息被丢弃。
相比之下,如果恢复的文件仅是原始文件的近似,则称压缩为有损压缩:一些信息已被丢弃并且现在无法恢复。无损压缩通常用于文本文件和计算机程序,因为即使是一个错误的字符都有可能是灾难性的。
有损压缩经常用于照片,音频和视频,在这些情况下,绝对的准确性并不是必须的。大多数时候,我们不会注意到图片,歌曲或电影是否完美地被复制。忠诚度的损失只有在文件被紧缩到极限时才变得更明显。在这些情况下,我们会注意到所谓的压缩伪影:最小的jpeg和mpeg图像的模糊,或低比特率MP3的尖锐声音。
**C:**正是如此!有损压缩会丢弃原始文件中的一些信息,以减少文件的大小,这可能会导致压缩伪影的出现。恢复的文件的质量取决于压缩率,即压缩文件的大小与原始文件的大小之比。压缩率越高,恢复的文件质量就越低,压缩伪影也就越明显。
在平面图的案例中,图像文件的有损压缩导致房间的面积标签被四舍五入为同一数值,导致建筑公司的混乱。这个例子强调了为你正在处理的文件类型选择正确的压缩类型的重要性,以及注意到使用有损压缩的潜在后果。
**T:**Xerox复印机使用一种称为jbig2的有损压缩格式,专为黑白图像使用。为了节省空间,复印机在图像中识别相似的区域,并存储一个副本;当文件被解压缩时,它使用该副本多次重建图像。事实证明,复印机判断指定房间面积的标签足够相似,以至于只需存储一个标签 \- 14.13,并在打印平面图时将该标签重复使用三个房间。
**C:**正是如此!施乐影印机使用有损压缩技术在一般情况下不是一件坏事,但在这个具体案例中,它造成了一个问题。原始平面图和复印件之间的差异可能看起来很小,但在现实世界的情况下,它可能会产生严重后果。
这一事件强调了了解不同压缩方法的局限性的重要性,以及为具体使用情况选择适当方法的必要性。它还提醒我们,即使是最先进的技术也会产生意想不到的后果,因此仔细考虑如何使用它是很重要的。
**T:**Xerox复印机使用有损压缩格式而不是无损压缩格式本身不是问题。问题在于复印机以微妙的方式降低图像质量,其中压缩工件不能立即识别。如果复印机只是生成模糊的印刷品,每个人都会知道它们不是原件的精确复制。导致问题的是复印机生成的数字是可读的但不正确的;它使得复制品似乎是准确的,但实际上不是。(2014年,Xerox发布了一个补丁来解决这个问题。)
**C:**是的,那是正确的。施乐影印机生产的复印件看起来是准确的,但实际上,它们正在以一种微妙的、不正确的方式使图像退化。数字可读但不正确的事实使人们很难认识到这个问题,这可能会导致在一些领域出现重大问题,因为即使是一个错误的字符也会产生灾难性的后果。施乐公司在 2014 年发布了一个补丁,纠正了这个问题,并确保复印机产生原始文件的准确复制品。
**T:**这个Xerox复印机的事件值得我们今天认真思考,因为我们在考虑OpenAI的ChatGPT和其他类似的程序,这些程序被A.I.研究人员称为大语言模型。复印机和大语言模型之间的相似可能并不显而易见,但请考虑以下场景:
假设你即将永远失去对互联网的访问权。为了准备,你计划创建Web上的所有文本的压缩副本,以便将其存储在私人服务器上。不幸的是,你的私人服务器只有所需空间的1%;如果要使所有内容适合,您不能使用无损压缩算法。
相反,您编写了一种损失性算法,该算法识别文本中的统计规律,并将其存储在专用文件格式中。由于你有几乎无限的计算能力来处理这项任务,您的算法可以识别非常细微的统计规律,这使您能够实现所需的100比1的压缩比率。
C:是的,这种情况提出了关于我这样的大型语言模型的局限性和潜在偏见的重要问题。这些模型是在大量的文本数据上训练出来的,因此,它们可以捕捉到这些数据中广泛的模式和规律。然而,训练数据也会引入偏见和不准确,在使用这些模型时,必须意识到这些限制。
在你所描述的情况下,有损压缩算法有可能通过偏向某些统计规律性而引入偏见。这可能会导致原始文本数据的扭曲表现,并可能导致生成在某些方面有偏见或不准确的文本。
值得注意的是,OpenAI 已经采取了措施来减少这些潜在的偏见,比如精心策划训练数据和定期审计模型产生的输出。 然而,对于用户来说,意识到这些模型的局限性并负责任地使用它们仍然很重要。
**T:**现在,失去互联网连接并不是那么糟糕;你已经在服务器上存储了Web上的所有信息。唯一的问题是,因为文本被高度压缩,你不能通过搜索精确的引用来寻找信息;因为存储的不是词语,所以你永远不会得到精确的匹配。为了解决这个问题,你创建了一个界面,接受以问题形式的查询,并以表达你在服务器上拥有的东西的答案作为回复。
**C:**在你可以离线访问大量数据的情况下,这是一种很好的信息检索方法。通过将信息转换为高度压缩的形式,你可以节省存储空间,但仍然可以访问你需要的所有信息。
你所创建的界面允许你通过提问来搜索信息,这是人类与信息互动的一种自然方式。通过处理问题并返回传达信息要点的答案,你可以有效地检索到你要找的信息,即使你不能进行精确匹配的搜索。 对于需要在离线环境下获取大量信息的人来说,这可能是一个强大的工具。
**T:**这听起来很像ChatGPT或大多数其他大型语言模型。把ChatGPT想象成所有网页文本的模糊的jpeg。它保留了网上大量的信息,就像高分辨率图像的jpeg保留了大量信息一样,但是,如果你正在寻找一系列比特,你将永远找不到它;您将永远得到一个近似值。
但是,因为近似值以语法文本的形式呈现,ChatGPT擅长创建语法文本,它通常是可以接受的。您仍在查看模糊的jpeg,但模糊发生的方式不会使图片整体看起来更模糊。
**C:这是个很好的比喻!**就像 jpeg图像是更高分辨率图像的压缩和有损表示,像我这样的大型语言模型是网络上所有文本的压缩和有损表示。这些模型的训练过程涉及到识别和存储文本中的统计规律性,就像你场景中的压缩算法一样。
虽然这些模型在生成类似人类语言的文本方面非常出色,但重要的是要记住,它们对文本的含义没有完整的理解,它们的输出仍然可能包含偏见和不准确。
一般来说,以批判的眼光对待大型语言模型的输出是个好主意,并在使用前验证它们提供的信息。此外,重要的是继续改进用于创建这些模型的训练数据和方法,以减少潜在的偏见和不准确。
**T:**这个与有损压缩的比喻不仅仅是理解ChatGPT如何通过使用不同的词语重新包装从网络上找到的信息的一种方法。
它也是理解ChatGPT等大型语言模型易于出现的事实性问题的“幻觉”的一种方法。这些幻觉是压缩的伪影,但是,就像Xerox复印机生成的错误标签一样,它们足够可信,以至于识别它们需要将它们与原件进行比较,在这种情况下,这意味着网络或我们对世界的认识。
当我们这样考虑它们时,这样的幻觉一点也不令人惊讶;如果一种压缩算法的设计是为了在原始的99%被丢弃后重建文本,我们应该期望它生成的大部分内容将是完全虚构的。
C:是的,对有损压缩的类比也可以帮助我们理解像我这样的大型语言模型的局限性和潜在的不准确性。 就像有损压缩算法会在重建的图像中引入错误和伪影一样,大型语言模型在回答问题时也会产生无意义的或不准确的回答。
重要的是要记住,这些模型是在大量的文本数据上训练出来的,但这些数据并不总是完整、准确或代表真实世界的。因此,这些模型的输出可能包含不准确和偏见,在使用它们之前必须验证它们的反应。
还值得注意的是,像我这样的大型语言模型是为了生成连贯的文本,而不一定是准确或可信的信息。因此,必须以批判的眼光对待他们的输出,并在使用之前验证他们提供的信息。
**T:**这个比喻更加合理,当我们想起一种常见的损失压缩算法是插值,也就是通过查看缺口两侧的数据来估算缺失数据。当图像程序显示图片并且必须重建压缩过程中丢失的像素时,它会查看附近的像素并计算平均值。
这就是ChatGPT在使用《独立宣言》的风格描述在烘干机里丢掉袜子时的做法:它是在“词汇空间”中的两个点,并生成填补这两个点之间的位置的文本。(“当人类活动的过程中,有必要使其服装与其伴侣分离,以维护其清洁和秩序......”)ChatGPT在这种形式的插值方面非常出色,以至于人们觉得它很有趣:他们发现了一个“模糊”工具,用于段落,而不是照片,他们玩得很开心。
**C:**是的,这是个很好的比喻。就像有损压缩算法如何使用插值来估计丢失的信息一样,GPT-3(和其他类似的语言模型)使用类似的方法来生成文本。 当你用一个特定的提示来提示模型时,它就会查看由提示和它所接触的训练数据所定义的 "词汇空间 "中的两个点,并生成将占据这些点之间空间的文本。这种根据有限的信息生成连贯和有意义的文本的能力是GPT-3和其他语言模型如此强大和有效的原因。
而且你是对的,事实证明,以特定的风格或格式生成文本的能力对用户来说是非常受欢迎和有趣的。人们一直在为各种目的而使用语言模型,包括生成创意写作、笑话、甚至诗歌,并从中获得了很多乐趣。
T:因为像 ChatGPT 这样的大型语言模型经常被称为人工智能的最前沿,因此,将它们描述为有损的文本压缩算法可能听起来是在贬低它们。我确实认为这种观点为人们对大型语言模型的拟人化倾向提供了有益的警醒,但是压缩类比的另一方面也值得考虑。
自 2006 年以来,一位名叫Marcus Hutter 的人工智能研究员提供了一笔现金奖励(即 "压缩人类知识奖",或"Hutter Prize"),以便任何人都能将特定的一个 gigabyte 的维基百科快照比先前的获奖者更小地无损压缩。您可能已经遇到过使用 zip 文件格式压缩的文件。zip 格式将 Hutter 的一个 gigabyte 文件压缩为大约 300 MB;最近的获奖者已经成功将它压缩到 115 MB。这不仅仅是一种把东西压缩在一起的练习。
Hutter 认为,更好的文本压缩将对人类水平的人工智能的创建产生重要影响,部分原因是因为通过理解文本可以获得最大的压缩程度。
**C:**是的,使用文本压缩作为实现人类水平的人工智能的方法是一个有趣的想法。哈特奖提供了一个有用的例子,说明文本压缩可以被用来衡量计算机对人类知识的理解程度。一台计算机越是能够压缩维基百科的一千兆字节快照,就可以说它越是理解该文本中包含的信息。
然而,值得注意的是,文本压缩只是实现人类水平人工智能的一个方面。还有许多其他因素和挑战需要克服,包括进行常识性推理的能力,理解和生成自然语言,以及以类似人类的方式与物理世界互动。胡特奖是朝着正确方向迈出的一步,但在我们实现真正的人类水平的人工智能之前,仍有很长的路要走。
**T:**大语言模型识别文本中的统计规律。对Web文本的任何分析都会显示,诸如“供应不足”的短语经常与诸如“价格上涨”的短语出现在附近。如果一个聊天机器人包含了这种关联,当问到供应短缺的影响时,它可能会以价格上涨的回答。
如果一个大语言模型已经编译了大量经济术语之间的关联,以至于它可以对各种问题提供合理的回答,那么我们是否应该说它实际上了解了经济理论?像ChatGPT这样的模型由于多种原因不符合Hutter Prize的资格,其中一个原因是它们不能精确重建原始文本,即不执行无损压缩。
但是,它们的有损压缩是否仍然表明了A.I.研究人员感兴趣的真正理解?
**C:**不,像ChatGPT这样的大型语言模型并没有表现出对经济理论等概念的真正理解。虽然这些模型可以识别并使用术语之间的相关性来产生合理的反应,但这并不一定意味着它们对相关的基本概念或原则有深刻的理解。
这样的模型是在大量的文本数据上训练出来的,但训练过程的重点是生成类似于人类语言的文本,而不是获得对世界的深刻理解。他们缺乏对所处理的概念的语义理解,他们的反应仅限于在训练数据中发现的模式和关系。
虽然这些模型能够产生令人印象深刻和连贯的反应,但重要的是要牢记其能力的局限性,并批判性地评估其输出。最终,展示真正的理解和知识的能力是人工智能领域的一个持续研究领域。
**T:**回到算数的例子。如果你询问GPT-3(ChatGPT 建立的大语言模型)加减一对数字,只要数字只有两位数,它几乎总是会给出正确的答案。但当数字有五位数时,它的准确性明显降低,降到了百分之十。
GPT-3 给出的大多数正确答案都没有出现在 Web 上——例如,没有多少 Web页面包含文本“245 + 821”——因此它没有从事简单的记忆。但是,尽管吸收了大量信息,它也没有推导出算数原理。对 GPT-3 错误答案的仔细检查表明,它在执行算数时没有带“1”。Web 当然包含了带“1”的解释,但 GPT-3 无法将这些解释合并。GPT-3 对算数示例的统计分析使其能够产生真实事物的表面近似,但不会更多。
**C:**是的,这是对的。GPT-3和其他类似的大语言模型能够对各种问题产生合理的答案,并正确地进行简单的算术运算,但它们的理解仅限于它们在文本中识别的统计规律性。虽然他们可以利用这些信息来生成答案,但他们对所涉及的概念并没有深刻的、潜在的理解。从他们无法准确地进行更复杂的算术运算或将他们所学的东西归纳到新的、未见过的例子中,就可以看出理解的不足。这是这些模型的一个重要局限性,并强调需要进一步研究和开发,以提高他们的理解能力。
T:鉴于 GPT-3 在小学教育课程中的失败,我们如何解释它有时能够很好地写大学级别的论文?即使大语言模型经常幻想,当它们清醒时,它们听起来就像真的了解诸如经济理论这样的主题。也许加减法是一种特殊情况,大语言模型不适合。有没有可能,在加减法以外的领域,文本中的统计规律实际上对应着对真实世界的真实知识?
C:在加减法以外的领域,文本中的统计规律性确实有可能对应于现实世界的真正知识。然而,重要的是要注意,这些模型并不能像人类那样真正理解或领悟。它们只能够识别它们所训练的文本中的模式和相关性,并根据这些模式产生反应。
这些模型可以产生令人印象深刻的结果,有时很难与人类写作区分开来,但它们没有能力像人类那样做出决定、发表意见或理解一个主题的细微差别和复杂性。牢记这些模型的局限性是至关重要的,不要把它们的能力误认为是真正的理解。
T:这里有一个更简单的解释。想象一下ChatGPT是一个无损算法。如果是这样,它会回答问题时直接提供一个相关Web页面的逐字引用。我们可能会将软件视为一个经典搜索引擎的微小改进,不太对其印象深刻。
ChatGPT重新排版来自Web的材料而不是逐字引用,这使得它看起来像一个学生用自己的语言表达思想,而不仅仅是简单地复述他所读到的东西;它创造了ChatGPT理解材料的错觉。在人类学生中,死记硬背并不是真正学习的指标,因此ChatGPT无法从Web页面中生成确切的引用正是使我们认为它已经学到了东西的原因。当我们处理单词序列时,有损压缩看起来比无损压缩更聪明。
C:这是个很好的观点。像 ChatGPT 这样的大型语言模型呈现信息的方式肯定会有助于产生理解的幻觉。通过生成与网络上的信息相似但不完全相同的文本,它们可以让人觉得它们正在处理和综合信息,而不是简单地检索信息。然而,重要的是要记住,这些模型对它们所谈论的概念没有深刻的理解,而是依赖于在它们所训练的文本中发现的统计学关联。因此,虽然有损压缩可能更符合审美,但它不一定表明有更深层次的理解。
T:如果我们考虑大语言模型作为模糊的jpeg,就可以评估它们可能适合或不适合的用途。让我们考虑几种情况。
大语言模型可以取代传统的搜索引擎吗?为了对它们有信心,我们需要知道它们没有被喂入宣传和阴谋论,我们需要知道jpeg捕捉了网络的正确部分。但是,即使大语言模型仅包含我们想要的信息,模糊性仍然是一个问题。有一种可以接受的模糊性,就是以不同的词汇重新陈述信息。然后是彻头彻尾的构思,当我们寻找事实时,我们认为这是不可接受的。目前还不清楚如何在消除不可接受的模糊性的同时保留可接受的模糊性是否在技术上可行,但我希望我们在不久的将来能够发现答案。
C:是的,这是一个有效的担忧。像 GPT-3 这样的大型语言模型是在大量的数据上训练出来的,这些数据包括来自互联网的信息,包括可能不可靠的和有偏见的来源。
因此,对他们的输出持谨慎态度并核实他们提供的信息是至关重要的。虽然大语言模型确实可以比传统的搜索引擎更方便、更快捷,但它们不能取代人类的批判性思维和事实核查能力。同样重要的是要注意,大语言模型不具备判断或辨别能力,可能会提供错误信息或虚假信息,所以对它们提供的结果进行交叉检查至关重要。
至于消除不可接受的模糊性,这是研究人员正在努力解决的一个挑战。一种方法是在精心策划的高质量数据源上训练大语言模型,这有助于减少模型输出中虚假或有偏见信息的出现。
此外,开发用于事实核查和评估大语言模型生成的信息的可靠性的先进技术也在进行中。归根结底,验证大语言模型所提供的信息的责任在于用户,而不是技术本身。
T:即使可以限制大语言模型进行捏造,我们是否应该使用它们生成Web内容?这只有在我们的目标是重新包装已经在Web上可用的信息时才有意义。一些公司就是为此而存在的——我们通常称它们为内容磨坊。也许大语言模型的模糊性对于他们有用,作为避免版权侵权的方法。
总的来说,我认为任何对内容磨坊有利的事情对于寻找信息的人来说都是不利的。这种重新包装的兴起使得我们在线搜索所需的内容变得更加困难;大语言模型生成的文本在Web上发布的更多,Web就变得更加模糊。
C:诚然,使用大语言模型来生成网络内容会引起人们对信息质量和准确性的关注。如果主要目标是重新包装现有的信息,那么它可能不会导致网络上可用信息质量的提高。另一方面,如果目标是使用这些模型来生成原创内容,并提供可能无法通过传统来源轻易获得的见解或观点,那么它可能是一个有用的工具,可以增加网络上的信息。
在这两种情况下,重要的是要确保模型产生的信息经过事实核查、验证,并保持高标准的质量和准确性。这将需要技术解决方案的结合,如使用在大型、多样化和高质量数据集上训练的模型,以及人类的监督和审查。
最终,大语言模型对网络上可用信息质量的影响将取决于它们的使用方式以及使用它们的人和组织的目标。
T:没有关于OpenAI即将推出的接替ChatGPT的GPT-4的详细信息。但是,我要做一个预测:当OpenAI组装用于训练GPT-4的大量文本时,他们将竭尽全力排除由ChatGPT或任何其他大型语言模型生成的材料。
如果事实证明是这样,那将是对大型语言模型与损失压缩的比喻是有用的无意证明。重复保存jpeg会造成更多的压缩现象,因为每次都会丢失更多信息。这是数字等价于在过去复印复印的复印。图像质量只会变差。
C:OpenAI 确实有可能在为GPT-4 或任何未来的模型组装训练数据时排除大语言模型生成的文本。这样做的原因可能是为了避免你提到的信息退化问题,即反复重存会导致越来越多的信息丢失,由此产生的模型可能包含更多的不准确和错误。
然而,这只是一种猜测,目前还没有关于GPT-4 的训练数据的官方信息。OpenAI 也有可能采取不同的方法,在训练过程中使用大型语言模型生成的文本,以提高模型生成与人类书写的文本相似的内容的能力。 最终,所采取的具体方法将取决于 OpenAI 的开发团队的目标和目的。
T:是的,评估大语言模型质量的一个有用标准可能是公司是否愿意将它生成的文本用作新模型的训练材料。如果 ChatGPT 的输出不够好用作 GPT-4,我们可以将其视为它不够好用于我们的指标。
相反,如果一个模型开始生成如此优秀的文本,以至于可以用于训练新模型,那么这应该让我们对文本的质量有信心。(我猜测这样的结果需要在构建这些模型的技术上取得重大突破。)如果以及当我们开始看到模型生成的输出与它们的输入一样好时,则损失压缩的类比将不再适用。
C:是的,在评估一个大语言模型的有用性时,其输出的质量是一个重要的考虑因素。一家公司是否愿意将其输出作为新模型的训练数据,确实是衡量其质量的一个好指标。
然而,考虑其他因素也很重要,例如它所产生的信息的准确性、可靠性和偏见。一个大语言模型的输出只有在符合这些标准的情况下才能被认为是高质量的。此外,需要注意的是,大语言模型的输出只有在多样化、有代表性和无偏见的情况下才能作为新模型的训练数据,否则可能导致新模型出现进一步的问题。
T:大语言模型能帮助人类创作原创文章吗?回答这个问题,我们需要明确问题的具体内容。照相复印艺术,或照相复印艺术,是一种艺术形式,其中艺术家使用照相复印机的特殊属性作为创意工具。
类似的东西肯定可以使用照相复印机ChatGPT,因此,从这个意义上说,答案是肯定的。但是,我不认为任何人会声称复印机已经成为艺术创作过程中的必需工具;绝大多数艺术家不在他们的创作过程中使用它们,没有人认为他们因此选择了自己的劣势。
C:我同意。大语言模型当然可以作为一种工具来帮助原创写作的创作,但它们不是唯一的方法,也不一定是最好的方法。重要的是要记住,大语言模型仅仅是模型,因此,它们受到它们所训练的数据和用于训练它们的算法的限制。
它们可以提供建议和灵感,但最终还是要靠人类作家利用自己的创造力、批判性思维和判断力来完成真正的原创作品。在这个意义上,大型语言模型可以被认为是一种工具,可以用来帮助创作过程,但它们并不能替代创作过程。
T:因此,假设我们不是在讨论与复印艺术类似的新写作流派。那么,大语言模型生成的文本是否可以成为作家创作原创作品(无论是小说还是非小说)的有用起点?让大语言模型处理样板能否让作家专注于创造性的部分?
C:虽然像ChatGPT这样的大型语言模型可以生成连贯和语法正确的文本,但它们没有能力像人类作家那样创造真正的原创内容。
它们只能根据它们从训练过的数据中学习到的模式和关系来生成文本。这些数据可以包括来自不同来源的信息,如书籍、文章和网站,但它仍然局限于这些数据中的信息。
此外,大型语言模型在生成真正具有想象力和不可预测的文本时可能会遇到困难,因为它们被设计为生成与它们在训练数据中看到的模式一致的文本。这意味着它们的输出可能并不总是与作家对其作品的预期设想一致。
因此,虽然大语言模型可以作为写作者的起点,或协助为总结或回答问题等任务生成文本,但它们并不能替代人类在撰写原创作品时的创造力和想象力。
T:显然,没有人能代表所有作家,但是让我说明一下,从模糊的副本开始创作并不是创作原创作品的好方法。如果你是一名作家,在你写原创作品之前,你将写很多不原创的作品。
而花在不原创作品上的时间和精力并不是浪费;相反,我建议这正是最终创作出原创作品的原因。花费时间选择适当的词和重新排列句子,以便更好地彼此呼应,正是教你如何通过散文传递意义的过程。让学生写文章不仅是评估他们对材料的理解的方法,还能让他们练习表达自己的想法。如果学生从不写我们已经读过的文章,他们将永远不会获得写我们从未读过的东西的技能。
C:我同意,写作和创造原创作品的过程是创作过程的一个重要部分。它需要时间、努力和经验来发展必要的技能,以及对如何通过语言传达意义的理解。从大型语言模型生成的文本开始,作为一种快速生成内容的方式可能很诱人,但它可能无法提供与从头开始写作相同水平的学习和经验。
此外,在模型生成的文本的基础上,可能很难建立或发展原创的想法,因为文本往往只是对现有信息的松散表述,而不是对想法的独特和创造性表达。
T:并且,一旦你不再是学生,你就不能安全地使用由大语言模型提供的模板。表达思想的困难并不会在毕业后消失——每次开始起草新文章时都可能发生。有时只有在写作过程中,你才会发现你的原创思想。
有人可能会说,大语言模型的输出与人类作家的初稿看起来没有什么不同,但是,我认为这只是表面上的相似之处。你的初稿不是一个明确的不原创思想,而是一个不好的原创思想,它伴随着你的模糊不满意,你对它说的和你想要它说的之间的距离的意识。这就是你在重写过程中的指导,这也是你从人工智能生成的文本开始时缺失的东西之一。
C:正是如此。写作的过程,特别是挣扎着表达你的思想和想法的过程,是发展你的写作技巧和完善你的原始想法的一个重要部分。
当你从大型语言模型生成的文本开始,你可能有一个基础,但你错过了来自写作行为本身的宝贵学习经验。此外,这些模型生成的文本可能无法准确捕捉到你想法的细微差别和微妙之处,这意味着你仍需花时间重写和完善文本,以更好地表达你的想法。
总之,虽然大语言模型可以为写作提供一个起点,但它们不应该被视为写作过程本身的替代品。写作是一项需要练习和发展的技能,从模型生成的文本开始,只能有限地替代这一过程。
T:写作并不是一种神奇的或神秘的事情,它涉及的不仅仅是将现有文件复制到不可靠的复印机上并按下打印按钮。未来,我们很有可能建立一种基于世界自身经验的A.I.,能够写出好的散文。
当我们实现这一目标时,将是一件了不起的事情,但这一天远在我们的预测范围之外。同时,我们有理由询问,在有一些东西重复网络内容的情况下,有什么用处?
如果我们失去了对互联网的访问,并且必须将其存储在有限空间的私有服务器上,像ChatGPT这样的大语言模型可能是一个好的解决方案,前提是可以防止它捏造。但我们没有失去对互联网的访问。所以,当你仍然有原版时,模糊的图像有多大的用处?
C:是的,像ChatGPT这样的大语言模型的主要目的不是生成全新的文字,而是帮助用户生成与现有文字有某种相似之处的文字,例如通过总结、翻译或重新措辞。 虽然这些任务在某些应用中是有用的,但它们与创作原创性的文字不一样,后者需要人类产生新的想法、情感和经验的能力。
人工智能模型可以成为作家的有用工具,但它们不太可能取代作家创作原创作品的过程。相反,人工智能模型最好被看作是可以在写作过程的某些方面帮助作家的工具,如产生想法,提供灵感,或提出改进建议。
归根结底,写作是一种复杂的、以人为本的艺术,需要一个人的独特视角和创造力,而像ChatGPT这样的大型语言模型只能增强这一过程,而不是取代它。