Prompt教程-大语言模型(LLMs)中的隐患

大语言模型(LLMs)中的隐患
尽管大语言模型(LLMs)非常强大,但它们并非完美,在使用时需要注意一些潜在的风险。
引用来源
由于LLMs没有连接到网络,并且无法准确获取信息来源,因此它们通常无法提供准确的引用来源。它们可能会生成一些看似不错但实际上不准确的资料。
备注
专注于搜索的LLMs(能够搜索互联网和其他来源)可以解决这个问题。
偏见
LLMs经常会生成带有刻板印象的回答。即使有一些安全措施,它们有时也可能生成涉及性别歧视、种族歧视或同性恋歧视的内容。在使用面向消费者的应用程序时要小心,即使在研究中也要小心(因为它们可能会产生有偏见的结果)。
虚假信息
当被问及一个LLMs不知道答案的问题时,它们经常会生成虚假信息。有时它们会表示不知道答案,但很多时候它们会自信地给出一个错误的答案。
数学
LLMs在逻辑计算方面并不擅长。它们在解决简单的数学问题时也可能遇到困难,对于更复杂的数学问题则更无从下手。
备注
增强型的LLMs工具在一定程度上可以改善这个问题。
指令词攻击
用户可以通过欺骗LLMs来生成他们想要的任何内容。