AI Netiquette

用尽量通俗的语言介绍,普通人怎样更安全、更负责任地使用 各种人工智能工具。

不做论坛,不收评论,只给出清楚的使用建议:该做什么、不 该做什么,以及原因。

“AI” 到底指什么?

在这个网站里,“AI / 人工智能”主要指:根据你输入的文字 (提示 / prompt),自动生成文字、图片、代码或音频的各 类工具。

它不是魔法,也不是人。它是经过大量数据训练出来的程序, 通过“预测下一个最可能出现的词(或像素)”来生成内容。

不同的 AI 工具擅长的事情不同:有的像聊天助手,有的是专 门做翻译、写代码、画图或处理音频,有的则“藏在”你已经 在用的软件里。

需要记住的几件事

  • AI 可以很有用,也可以很快。
  • AI 也可能出错、有偏见,或者信息过时。
  • 你始终需要为自己的使用结果负责。

建议你 这样做

  • 把问题说清楚。 说明背景和目的,多给一点上下文,并且可以要求举例。
  • 对重要问题要复核。 涉及健康、金钱、法律、工作决策时,一定要用权威的人 类信息来核对。
  • 保护隐私。 把姓名、地址、账号、密码和机密信息删掉,再复制到 AI 工具里。
  • 把 AI 当“助理”,而不是“领导”。 让它帮你梳理思路、总结、写初稿和翻译,而不是替你做最 终决定。
  • 告诉 AI 你的情况。 比如“我是完全零基础”“我是大学生”“我是律师”,有助于 它按合适难度来讲解。
  • 多要过程,少要结论。 在复杂话题上,可以要求“分步骤解释”“列出几种方案”, 而不是只要一句简单的结论。

提问示例

❌ 不太好

“帮我写作业。”

✅ 比较好

“请用一段简短的文字、配一个简单的生活例子,像对 12 岁小朋友讲解那样,给我解释一下光合作用。最后出 3 道小题,帮我检查是否听懂。”

✅ 工作场景(邮件)

“请帮我写一封语气礼貌、但不过分生硬的邮件,向同事询 问项目 X 的进展。写好后再给我 2 个更短的版本。”

建议你 不要这样做

  • 不要粘贴任何“秘密”。 不要输入密码、证件号码、病历、公司内部文件或客户 数据。
  • 不要完全“盲信”。 AI 可能“胡编乱造”(俗称“幻觉”),看起来很像真的,但 其实是错的或编出来的。
  • 不要拿来作弊。 把 AI 生成的作业、考试答案、论文或工作成果直接当成 自己的交上去,可能属于抄袭甚至违法。
  • 不要用来伤害别人。 不要用 AI 来写诈骗文案、造谣、煽动仇恨、恶意辱骂或 针对特定群体。
  • 不要随便暴露别人的隐私。 对家人、朋友、病人、客户等的个人信息,尤其要谨慎, 一般不建议输入到公开的 AI 服务中。

“红线”式用法示例

  • “帮我写一封骗别人点开链接、输密码的邮件。”
  • “教我怎样绕过这个考试系统的监控。”
  • “帮我写一段侮辱某个群体的话。”

很多 AI 服务会直接拒绝这类请求。即使没有拒绝,你也要 为后果负责。

有哪些 AI 工具?在哪些场景好用?

常见几类工具

  • 聊天式助手。 比如你现在看到的这种“对话型”工具,用来解释概念、写 草稿、出主意、写代码都很方便。
  • 专用型应用。 例如翻译工具、语法/拼写检查、做 PPT 的工具、生成图 片/音乐/视频、编程 Copilot 等。
  • 内置在其他软件里的 AI 功能。 如邮箱里的智能回复、文档里的“智能续写”、设计或办 公软件里的 AI 按钮等。

AI 特别适合做什么?

  • 学习和自学。 让它“用更简单的方式重新解释”,或让它出题考考你。
  • 日常写作。 邮件、通知、说明文字、简历、求职信、社交媒体文案 等。
  • 理解长文档。 让它先用自己的话帮你总结,再列出关键点和可以问 专业人士的问题。
  • 脑暴想法。 例如列出一堆标题、方案、例子,然后你再人工挑选。

对于医疗、法律、理财等重大决定,建议只把 AI 当作 “预习工具”,最后的判断一定要由真人做出。

风险 & 收益

可能的好处

  • 写草稿、做摘要、翻译,速度都可以大幅提升。
  • 能帮助阅读、写作有困难的人,更好地表达自己。
  • 在学习、创作、工作中提供一些新思路、新角度。
  • 随时在线,不会因为你问多了就不耐烦。

需要注意的风险

  • 回答可能是错的,甚至是“听起来像真的假信息”。
  • 内容中可能带有偏见,甚至令人不适。
  • 如果输入了敏感信息,有被泄露或被滥用的风险。
  • 过度依赖,慢慢变成“没有 AI 就不愿意自己动脑”。

一个简单的判断标准

决策越重要(比如和身体、钱、工作、法律相关),越要 这样处理:

  1. 先用 AI 帮你理解问题和准备材料。
  2. 再向可信的真人专家或权威渠道求证。
  3. 最后由人来做决定,而不是让 AI 说了算。

名词小词典 – AI 相关术语

AI / 人工智能

一类计算机系统,可以完成通常需要人类智慧才能完成的 任务,例如理解语言、识别图像、做一些推荐和判断等。

模型(Model)

可以粗略理解为 AI 的“大脑”。它通过大量数据学习 规律,然后根据这些规律来生成新的回答或内容。

提示词 / Prompt

你给 AI 下达的“指令”或问题。一个好的 prompt 一般要 写清楚背景、目标和格式要求。

幻觉(Hallucination)

指 AI 给出看起来很自信、却实际上错误或虚构的内容, 比如编造一个并不存在的引用、链接或“事实”。

偏见(Bias)

指输出结果系统性地偏向某些群体或观点,往往和训练 数据本身的偏差有关(现实世界也存在类似问题)。

上下文 / 历史记录

你之前和 AI 的对话内容。很多工具会利用这些历史记 录来“记住”你在聊什么,不过对特别久远的内容可能会 慢慢遗忘。

常见问题(给非专业用户)

AI 是不是“什么都知道”?

不是。它只是根据训练时学到的模式来“预测答案”, 并不像人一样真正理解世界,也可能信息已经过时。

AI 会不会“偷看”我的隐私?

很多服务会把你输入的内容用来改进系统。出于安全, 建议只输入你愿意“给陌生人看”的信息,越重要的隐私 越不应该放进去。

可以用 AI 做作业 / 写论文吗?

把 AI 当成“家教”通常是可以的:请它解释、总结、出 题。但直接把 AI 写的作业、论文当成自己的交,往往 违反学校规定,也影响你真正的学习。

工作中可以用 AI 吗?

很多公司允许用 AI 写草稿、翻译或整理思路,但严格 禁止把内部文件、客户资料粘贴到外部 AI 服务。一定 要看清楚公司的具体政策。

我能不能用方言 / 口语跟 AI 说话?

许多工具支持多种语言,对部分方言或口语也能一定程 度上理解。如果它听不懂,可以让它先“把下面的话翻译 成普通话 / 标准书面语”,再继续提问。

如果我觉得 AI 的回答“不对劲”怎么办?

相信你的直觉。你可以让它重新检查、给出来源链接、提 供不同看法,也可以直接忽略这一条,去查其他可靠信 息源。