https://www.howtogeek.com/886928/6-things-you-shouldnt-use-chatgpt-for/
作者:SYDNEY BUTLER 译者:明明如月
虽然 ChatGPT 是一个强大的 AI 工具,能够生成连贯和相关性极强的回复,但它也有其局限性。它不是敏感信息的安全渠道,也不是法律或医疗咨询的可靠来源,不能替代人类的决策或专业的心理健康支持,也不是事实信息的权威来源,或者是复杂数学问题的精确辅助工具。
ChatGPT 极其强大,对我们与计算机的互动方式产生了变革性影响。然而,像任何工具一样,理解其限制并正确使用它非常重要。以下是你不应该用 ChatGPT 去做的 6 事情。
ChatGPT 的局限
在我们深入具体内容之前,理解 ChatGPT 的局限是至关重要的。首先,它不能访问实时或个人数据,除非在对话中明确提供,或者你已启用 ChatGPT 的联网插件。在未启用浏览功能(这需要 ChatGPT Plus)的情况下,它根据在训练过程中学习到的模式和信息生成回应,这包括在其训练截止日期 2021 年 9 月之前的大量互联网文本。但是,它并不以人类的感知“知道”任何事情,或者像人类那样理解上下文。 虽然 ChatGPT 经常能生成令人印象深刻的连贯和相关的回应,但它并非无懈可击。它可能会产生错误或无意义的答案。其熟练程度在很大程度上取决于给出的提示的质量和清晰度。
1、不要在 ChatGPT 中使用敏感信息
由于其设计和工作方式,ChatGPT 不是分享或处理敏感信息的安全渠道。这包括财务详情,密码,个人身份信息或保密数据。
最近,OpenAI 添加了一种新的“隐身”模式,以防止你的聊天记录被存储或用于未来的训练,但只有你能决定是否信任这个承诺。一些公司,如三星,已经因为数据泄露禁止员工在工作中使用 ChatGPT。
2、不要用它来获取法律或医疗建议
ChatGPT 没有被认证,不能提供准确的法律或医疗建议。它的回应是基于它在训练数据中可用的模式和信息。它无法理解个别法律或医疗案例的细微差别和具体情况。虽然它可能提供关于法律或医疗话题的一般信息,但你应该始终咨询有资质的专业人士以获得这样的建议。 GPT 是一项有前途的技术,无疑有潜力应用到合法的医疗诊断,但这将以专业化,经过认证的医疗 AI 系统的形式出现。它并非公众可用的通用 ChatGPT 产品。
3、不要用它来替你做决定
ChatGPT 可以提供信息,提出选项,甚至基于提示模拟决策过程。但是,必须记住,AI 不理解其输出的真实世界影响。它无法考虑到决策中涉及的所有人类方面,如情绪,道德或个人价值观。因此,虽然它可以是头脑风暴或探索想法的有用工具,但人类应始终做出最后的决定。
对于 ChatGPT 3.5,这一点尤为重要,因为它是 ChatGPT 默认模型,也是目前唯一对免费用户开放的模型。GPT 3.5 的推理能力明显低于 GPT 4!
4、不要把它当作可信赖的来源
虽然 ChatGPT 受到大量信息的训练并经常提供准确的回应,但它并不是权威的真实来源。它无法验证信息或实时检查事实。因此,从 ChatGPT 获取的任何信息都应与可信赖和权威的来源进行交叉验证,尤其是关于新闻,科学事实或历史事件等重要事项。 ChatGPT 容易出现“幻觉” 给出一些听起来真实,但完全捏造的事实。大家要特别小心!
5、不要把 ChatGPT 当作心理咨询师
虽然像 ChatGPT 这样的 AI 技术可以模拟富有同情心的回应并提供一些普遍性的建议,但它们不能替代专业的心理健康支持。它们无法深入理解和处理人类的情绪。
AI 不能替代人类心理咨询师所固有的微妙理解,情绪共鸣和道德准则。对于任何严重的情绪或心理问题,始终寻求获得执照的心理健康专业人士的帮助。
6、不要使用 ChatGPT 来做数学!
乍一看,让像 ChatGPT 这样的 AI 帮助你做数学作业似乎是一种自然的应用。然而,需要注意的是,ChatGPT 的强项是语言,而不是数学。尽管其训练数据庞大,但其准确执行复杂的数学运算或解决复杂问题的能力是有限的。
虽然 ChatGPT 是一个令人印象深刻的工具,有广泛的应用范围,但理解其局限性至关重要。正确地使用这个工具将有助于发挥它作为辅助工具的优势,而不是让它成为误导或可能有害的信息来源。