维基百科:大语言模型

大型語言模型(又称大模型、AI聊天机器人,简称LLM)是使用人工神經網路生成文字的電腦程式,其中又以ChatGPT最为常见。

虽然大型语言模型在生成新聞等文字时可能非常有用,但它们生成的内容可能是完全虚构的,包括虚构的参考文献。LLM生成的内容本身是不可供查证的,相当于机器生成的原创研究。它还可能有偏见诽谤在世人物、违反版权,從而危害維基百科的中立和正確性。

编辑者如果对这些风险不够了解,且无法克服这些工具的限制,则不应该在它们的协助下进行编辑。在编辑者没有充分熟悉的任务中不应使用LLM。它们的输出应该被严格检查,以确保符合所有适用的方针和指引。无论如何,编辑者都应避免在维基百科上发布通过询问LLM写原创内容获取的内容。即使这样的内容经过了大量编辑,也最好使用不使用机器生成内容的替代方案。与所有编辑一样,编辑对其LLM辅助编辑负有全责。

此外,LLM创建的作品不是可靠的来源。除非它们的输出是由有着严格事实查证与正确性的声誉的可靠媒体发布的,否则不应在我们的条目中引用。维基百科不是一个测试场,用于LLM的实验或试验是被禁止的。强烈不建议使用LLMs来编写用户讨论页的评论或编辑摘要。此外,使用LLM生成或修改文本应在编辑摘要中提及(即使他们的使用条款不要求这样做)。

风险和相关方针

编辑

原创研究和虚构

编辑
维基百科条目不得包含原创研究,即未发表的事实、争论、觀點、推论和想法。以及对已发表材料进行的未发表分析、综合或总结,并产生或暗示新的结论。为了证明您未添加原创研究,您必须能够引用可靠的、已发表的来源。这些来源应该与条目主题直接相关,并直接支持所呈现的材料。

LLM是模式完成程序:它们通过输出最有可能出现在先前词语之后的词语来生成文本。它们从训练数据中学习这些模式,该数据包括来自互联网和其他地方的各种内容,包括小说、阴谋论、宣传等。因此,LLM有时会得出即使它们表面上看起来很熟悉,但在任何可靠来源中都不存在的结论。它们还可能按照边缘或荒谬的前提回应提示,试图提出似乎合理的后续内容:如果要求写一篇关于吃碎玻璃好处的条目,一个不受安全约束的LLM将这样做。最后,LLM可以编造事实,这是其设计的统计不可避免的副产品,称为“虚构”。例如,美國技術雜誌《快公司》測試ChatGPT時,要求它產生一篇有關特斯拉上一個財務季度的新聞文章,結果產生出來的數據全部錯誤。[1]从实际角度来看,所有这些都等同于原创研究

由于LLM通常输出准确的陈述,而且它们的输出通常听起来很有道理,并带有自信的语气,每当它们提供一个看似有用的结果时,人们可能难以检测上述问题。一个普通用户可能认为自己拥有一个有用的工具,可能对准确性进行了抽查并“没有看到任何问题”,因此倾向于接受所提供的输出;但很可能存在问题。即使有90%的内容是正确的,有10%是错误的,这在百科全书中也是一个巨大的问题。当要求LLM回答复杂问题、涉及鲜为人知的主题或执行不适合它们的任务时(例如需要广泛知识或分析的任务),LLM的输出变得更糟。

无来源或不可查证的内容

编辑
写入维基百科的内容须要能被读者在可靠来源中得到验证。维基百科不发表原创研究,其中收录的内容需要有既已发表的材料作为依据和支持,而不能仅由编辑者认定“真实正确”。编辑者应为条目中的内容及其引用提供可靠来源,否则,这些内容可能被移除。

LLM不遵循维基百科关于可供查证和可靠来源的方针。LLM有时会完全不引用,或者引用不符合维基百科的可靠来源要求的来源(包括引用维基百科作为来源)。在某些情况下,它们通过捏造标题、作者和URL来虚构不存在的参考文献

LLM虚构的内容,除了如上所述是原创研究之外,还违反了可供查证方针,它可能由LLM捏造而导致无法查证,即没有实际存在的参考文献可查。

算法偏见和非中立的观点

编辑
所有维基百科条目以及其他百科式内容必须以中立的观点书写,在尽可能没有任何偏见的前提下,平等地表达出任何曾在可靠来源中发表过的重要观点。

LLM可能生成在语调上看似中立但实质上不一定中立的内容。对于生者传记,这一担忧尤为强烈。

侵犯版权

编辑
您为维基百科所贡献的任何资料都将无条件地在CC BY-SA 4.0下公开发行。因此如果您有意参与的话,您必须授权使用该许可证,那意味着:
  • 您拥有该材料的版權,譬如您是该材料的原创作者,或
  • 您通过某种允许使用CC BY-SA 4.0的渠道取得该材料,例如该材料属公有领域(in public domain)或者该材料本身就是在CC BY-SA 4.0条款下发行

LLM可能生成侵犯版权的材料。[a]生成的文本可能包括逐字引用的非自由内容或是派生作品

用法

编辑

需要特定的能力

编辑

LLM是辅助工具,不能替代人类判断。需要谨慎判断以确定此类工具是否适合特定目的。使用LLM的编辑者应该熟悉所使用的LLM固有的局限性,然后必须克服这些局限性,以确保他们的编辑符合相关的方针和指引。为此,在使用LLM之前,编辑者应该已经具有在没有LLM帮助的情况下执行相同或更高级任务的丰富经验。[b]

披露

编辑

每次编辑都涉及到LLM输出的应标记为LLM辅助,并在编辑摘要中标明AI的名称和版本(如果可能)。这适用于所有命名空间

写条目

编辑

大型语言模型可用于编辑或扩充现有文本,并为新条目或现有条目生成想法。对条目的每一次更改都必须符合所有适用的方针和指引。这意味着您必须熟悉与所讨论主题相关的信息来源,并仔细评估文本的整体中立性以及与引用来源相关的可查证性。如果引文是作为输出的一部分生成的,则必须验证相应的来源是真实、可靠、相关且合适的来源,并检查 文本 - 来源一致性[c]

具体而言:

  1. 如果您将LLM用作写作顾问,即寻求提纲、改进段落、对文本进行批评等,请注意它提供的信息是不可靠且可能错误的。在选择是否采纳LLM的建议时,请谨慎使用聪明才智。
  2. 您可以使用LLMs进行编辑、总结和改写,但请注意它们可能无法正确检测语法错误或保持关键信息完整。请谨慎使用并对响应进行大量编辑。您还可以要求LLM纠正其不足,比如在总结中缺少信息或具有不百科全书化、例如促销性的语调。

英語維基百科編輯Rory Jaffe在線上報紙《維基簡訊》表示極為反對使用大型語言模型編寫文章,但提出一個例外,表示大型語言模型產生的內容可以作為一個基本文章結構/輔助工具,然後再慢慢去找來源編寫。[2] 原始LLM输出不应直接粘贴到草稿或条目中。草稿是正在进行的工作,它们的初始版本通常未达到条目所需的标准,但通过从“未更改”的LLM输出的初始版本开始,使编辑者能够开发文章内容不是草稿空间或用户空间的目的之一。

如果发现了疑似大语言模型生成的内容……

编辑

對於疑似由大型語言模型由所產生的內容,應該:

  1. 首先檢查是否有真实來源證明,如果满足可以進行清理、修正語氣[d]。如果沒有,酌情加入來源或者掛上{{AI-generated}}或{{fact}}模板。
  2. 如果条目的所有版本均存在问题,可以選擇協助清理/提報侵犯版權提刪,明顯的惡作劇或錯誤資訊可以提報速刪

附注

编辑
  1. ^ 这也适用于AI模型位于其生成的作品不适用版权的司法管辖区的情况。
  2. ^ 例如,擅长处理破坏行为但几乎不进行条目条目的人可能不应该通过使用LLM开始创建条目。相反,他们应该首先在没有LLM帮助的情况下积累条目创作的实际经验。
  3. ^ 参见en:Wikipedia:Citing sources#Text–source integrity
  4. ^ 建議把文字放進搜尋引擎搜索,確認一下有沒有侵犯版權,如果情況存在的話請考慮移除/用自己的方式寫

參考來源

编辑
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy