维基百科讨论:机器人方针/存档二
本页是以往讨论的存档。请勿编辑本页。若您想发起新讨论或重启现有讨论,请在当前讨论页进行。 |
提议限制在维基百科使用ChatGPT及类似工具
最近几个月爆火的ChatGPT可以按照人类的提示生成文本,并且能根据人类的意见进行修改。但其生成的文本常常似是而非,看上去没有问题而实际上却含有事实错误,因此如果在条目中大量使用,可能会具有非常恶劣的影响。
StackOverflow已经禁止使用ChatGPT生成的内容,因此,中文维基百科社群是否应该跟进?
可行的方案:
- 完全禁止使用ChatGPT生成的内容编写条目;
- ChatGPT生成的内容须经过人工审阅确认无问题之后才允许出现在条目中。
相关链接:
- Temporary policy: ChatGPT is banned - Meta Stack Overflow
- Should ChatGPT be used to write Wikipedia articles? - Slate
以上。--Diskdance 2023年1月28日 (六) 01:42 (UTC)
- 原则上支持,但不论是禁制还是审阅如何自动分辨为需要审核或禁止?人工难以审核每一个新页面和版本差异确认没有AI编写内容。--路西法人 2023年1月28日 (六) 01:47 (UTC)
- 以Stack Overflow为例,他们唯一能实际做的是在有用户被发现疑似使用ChatGPT的时候才予以禁制,无法杜绝有关内容的发布。您的两个建议方案都涉及审核所有ChatGPT写的内容,除了一般的举报外如何做到?还是只能跟现在的侵权提报一样有人发现才报?--路西法人 2023年1月28日 (六) 01:50 (UTC)
- 不认为您的方案可行。ChatGPT等工具并不像Google Translate那样输入和输出总是相同,很容易受到使用者的影响,不是能够直接禁止的。社群似乎也不具备人工审核每一笔编辑的能力。若要求使用此类工具的用户主动声明倒是可以,但也定然不是所有用户都会主动声明。同时,用户也可能是生成后自行润色,将其质量提升到可接受的标准后再发布。—— 月_樱_雪 (留言) 2023年1月28日 (六) 01:54 (UTC)
- 1不实际可行,缺乏有效检测手段。2在当前意义不大,条目本应被巡查,没有必要“歧视”。如有滥建、批量建立发生,按寻常规则处理即可,判断是否出自AI及质量如何没有依据。对要求申报表示支持,参考机器人、有偿编辑等方针,但落实存难度会变成君子协定。--YFdyh000(留言) 2023年1月28日 (六) 03:09 (UTC)
- 这是恶意推定,我不知道使用ChatGPT造成何种破坏或者违法哪一方面的规则。--Cat on the Mars 2023年1月28日 (六) 03:56 (UTC)
- 这个时候就得搬出User:0xDeadbeef在英维举出的例子了。以下是使用ChatGPT生成的关于Rust for Linux的条目片段(方便不懂相关领域的编者,部分术语我自己添加了内链):
Rust for Linux是向Linux内核项目提交的一系列补丁的总称,这一系列补丁让Rust语言可以用于编写内核组件。该项目始于2017年,由一群对将Rust用作系统底层开发感兴趣的志愿者发起。
Rust for Linux is a series of patches to the Linux kernel that adds the Rust programming language as a second language for writing kernel components. The project was started in 2017 by a group of volunteers who were interested in exploring the use of Rust for low-level systems programming.
早先的补丁是与Linux内核维护者以及开源群体一同合作开发而成的。这些补丁聚焦于将Rust的内存安全以及并行特性带入内核当中,同时提供对已有的C语言代码基础的相容性。
The initial patches were developed in collaboration with the Linux kernel maintainers and other members of the open-source community. They focused on integrating Rust's memory safety and concurrent programming features into the kernel, and on providing compatibility with the existing C codebase.
在2018年,这些补丁被合并至Linux内核代码库当中,令Rust成为第一门除C语言之外,获官方支持可以用作编写内核组件的语言。对于Rust语言社群来说是里程碑式的成就,展示了Rust语言可以胜任内核级别编程的需求。
In 2018, the patches were merged into the mainline Linux kernel, making Rust the first programming language other than C to be officially supported for writing kernel components. This marked a significant milestone for the Rust community, as it demonstrated the language's ability to handle the demanding requirements of kernel-level programming.
自Rust语言加入至Linux内核之中起,Rust for Linux项目持续发展,当前聚焦于改善Rust在内核中运作的兼容性以及效率。该项目还吸引了其他操作系统开发者的注意力,令他们对将Rust语言用作内核级别编程所带来的潜在优点感兴趣。
Since its inclusion in the Linux kernel, the Rust for Linux project has continued to evolve, with ongoing work on improving the compatibility and performance of Rust in the kernel. It has also attracted the attention of other operating system developers, who are interested in exploring the potential benefits of using Rust for kernel-level programming.
- 我就问一句,这么有模有样的段落你能发现这里面捏造了好几个关键事实吗?你们还觉得这不会造成破坏吗? --MilkyDefer 2023年1月28日 (六) 09:12 (UTC)
- 注:我自己能注意到的捏造事实如下
- Rust for Linux项目起始于2020年,不是片段中宣称的2017年;
- Rust for Linux项目代码合并至Linux内核是在2022年,不是片段中宣称的2018年;
- 当前Rust for Linux还没有达到有闲心改善兼容性和效率的地步,当前只有最基础能让编译顺利通过的部分。
- 有这么方便的工具那些喜欢搞鬼祟破坏的LTA们简直笑开花了啊。 --MilkyDefer 2023年1月28日 (六) 09:16 (UTC)
- 另外不要忘记维基百科是自然语言处理领域重要的数据集来源,我们有义务不要搞出垃圾进入维基百科又被提取成训练垃圾生成器的原材料的事情。--MilkyDefer 2023年1月28日 (六) 09:21 (UTC)
- 我认为鉴于ChatGPT的现状,应该将它按对待人类新手的方式处理,事实上就内容而言我们也无法区分新手和机器人之间的区别,何况你站已经封禁了绝大多数代理网段,仅仅凭借实验内容无法证实其破坏性或者真的有人会用来破坏,加上理论上ChatGPT还在使用旧的数据集,分辨拙劣过时内容远远比分辨是否是高级AI作品更加具备可行性也更加重要,暂时没有必要就这件事因“人”立法,如果需要修改方针必须证明现有方针在哪一方面无法满足你的需求(包括劣质训练集,还不如去改进你站存废积压)。--Cat on the Mars 2023年1月28日 (六) 09:38 (UTC)
- 再新手也不会写出金玉其外败絮其中的内容,真正的新手是写出来读出来就像是新手。你说的这不是新手,是破坏者。--MilkyDefer 2023年1月28日 (六) 09:44 (UTC)
- 你维的毛某人浪迹天涯多少年了,这种抓不出来其他更是抓不到,你维有长过记性了吗,我说过不要因人立法,不是因为一会儿折毛,一会儿ChatGPT,封个把人就能解决的事情,ChatGPT就我的实际体验还不具备单独作案的能力,我刚刚想要让他搞点引用都得费神很久,像这么一大段无来源内容理所应当就是劣质内容,巡查员应该有自己的判断。----Cat on the Mars 2023年1月28日 (六) 10:01 (UTC)
- 本人基本同意CatOnMars的观点。--0xDeadbeef(留言) 2023年1月28日 (六) 10:17 (UTC)
- 至少举例中如果缺少来源(或者来源能通过编辑者审阅并确认过的话),还是能区分出行文问题。需要注意但不至于需要规例。——Sakamotosan路过围观 | 避免做作,免敬 2023年1月29日 (日) 00:41 (UTC)
- 你维的毛某人浪迹天涯多少年了,这种抓不出来其他更是抓不到,你维有长过记性了吗,我说过不要因人立法,不是因为一会儿折毛,一会儿ChatGPT,封个把人就能解决的事情,ChatGPT就我的实际体验还不具备单独作案的能力,我刚刚想要让他搞点引用都得费神很久,像这么一大段无来源内容理所应当就是劣质内容,巡查员应该有自己的判断。----Cat on the Mars 2023年1月28日 (六) 10:01 (UTC)
- 再新手也不会写出金玉其外败絮其中的内容,真正的新手是写出来读出来就像是新手。你说的这不是新手,是破坏者。--MilkyDefer 2023年1月28日 (六) 09:44 (UTC)
- (!)意见 我认为把可供查证做好就能避免大部分问题。--Taeas(留言) 2023年1月28日 (六) 12:10 (UTC)
- (+)支持。我当然知道实际上禁之不绝,但态度还是要摆出来。--Temp3600(留言) 2023年1月28日 (六) 19:56 (UTC)
- 我认为标题中说的“限制”就可以了,不必要禁止也难以禁止(如何分辨,难道搞一个ChatGPT检查器之类的?[1]但准确度又如何?),非常同意Temp3600的意见,“态度还是要摆出来”--百無一用是書生 (☎) 2023年1月29日 (日) 03:11 (UTC)
- 刚才用chatgpt-detector检测了一下上面的例子Rust for Linux,英文都能正确识别是ChatGPT,但翻译成中文就认为是人类了--百無一用是書生 (☎) 2023年1月29日 (日) 03:19 (UTC)
- 我认为标题中说的“限制”就可以了,不必要禁止也难以禁止(如何分辨,难道搞一个ChatGPT检查器之类的?[1]但准确度又如何?),非常同意Temp3600的意见,“态度还是要摆出来”--百無一用是書生 (☎) 2023年1月29日 (日) 03:11 (UTC)
- 提问:ChatGPT是否会造成目前方针无法处理的破坏?如果有,是否说明目前的方针存在漏洞?--Steven Sun(留言) 2023年1月29日 (日) 03:44 (UTC)
- (+)支持,MilkyDefer给出的例子已经很明显了,用于破坏实在是太过简单。--BlackShadowG Slava Ukraini! 2023年1月29日 (日) 04:27 (UTC)
- 支持禁止,列入行为方针即可。 ——魔琴 [ 留言 贡献 新手2023计划 ] 2023年1月29日 (日) 04:32 (UTC)
- 我是持怀疑态度。首先是无法检测、无法证明。任何一段文字,就算GPT检测器说是GPT写的,你无法看到那个人把这段文字从GPT复制下来贴上了。第二,ChatGPT用法多种多样,不应该所有用法都不能用。我特别喜欢叫他帮我找错别字,和从其他语言翻译成中文。应该还有很多无破坏性的例子。Last but not least,现有规则已经可以cover ChatGPT造成的破坏。难道现在加一条说ChatGPT做好事也不行?--Gqqnb(留言) 2023年1月29日 (日) 13:01 (UTC)
- 我倒是有点想开了,维基百科又不是检查你们做大学作业,有些学校会怀疑是不是你自己写的,你只要写出来了,巡查员检查过了,我管你是怎么写的。我不明白有些人的逻辑,只要这种东西能够用来破坏,“很容易用来破坏”,那这种东西就一定要禁止,是不是你家做菜以后都不要拿刀了。且不论枪支弹药的道德属性,枪支弹药尚且可以用在正道,炸药都可以弄出个诺贝尔奖,你维连ChatGPT的影子都没有看到,便十分“有头有尾”有罪推定宣判ChatGPT死刑,似乎认定了默认利用AI的都是坏人一样,每个人在你维用一次ChatGPT就好像从你维的大厦下面偷一块砖,连基本的“假定善意”都丢掉了。借用鲁迅的一句话,“岂但乡下人之于雷峰塔,日日偷挖中华民国的柱石的奴才们,现在正不知有多少”,而这等这种视若无睹的理所应当更是令我更是匪夷所思。----Cat on the Mars 2023年1月29日 (日) 13:26 (UTC)
- 感觉类似机翻:内容提交人自己知道润色就OK;当然对初次参与维基百科的人,最保守的说法还是“禁止机翻”。--洛普利宁 2023年1月29日 (日) 13:31 (UTC)
- 我倒是有点想开了,维基百科又不是检查你们做大学作业,有些学校会怀疑是不是你自己写的,你只要写出来了,巡查员检查过了,我管你是怎么写的。我不明白有些人的逻辑,只要这种东西能够用来破坏,“很容易用来破坏”,那这种东西就一定要禁止,是不是你家做菜以后都不要拿刀了。且不论枪支弹药的道德属性,枪支弹药尚且可以用在正道,炸药都可以弄出个诺贝尔奖,你维连ChatGPT的影子都没有看到,便十分“有头有尾”有罪推定宣判ChatGPT死刑,似乎认定了默认利用AI的都是坏人一样,每个人在你维用一次ChatGPT就好像从你维的大厦下面偷一块砖,连基本的“假定善意”都丢掉了。借用鲁迅的一句话,“岂但乡下人之于雷峰塔,日日偷挖中华民国的柱石的奴才们,现在正不知有多少”,而这等这种视若无睹的理所应当更是令我更是匪夷所思。----Cat on the Mars 2023年1月29日 (日) 13:26 (UTC)
- 翻译指引有一句“请勿使用机器翻译翻译条目”,在后面加一个“或人工智能机器人”之类的,赋予禁止使用相关工具之授权法源就行了。—— Eric Liu 創造は生命(留言・留名・学生会) 2023年1月29日 (日) 14:21 (UTC)
- 但提案不限于翻译,也包含创作。不过,如果创作后能做到可供查证,感觉没太大问题。--YFdyh000(留言) 2023年1月29日 (日) 14:38 (UTC)
- “机器人方针适用于所有用以编辑维基百科的计算机程序或脚本,包括全自动、高速运作以及协助编者的工具。”
- 按我的理解,现行机器人方针完全适用于AI程序,要改也轮不到翻译指引。----Cat on the Mars 2023年1月30日 (一) 09:23 (UTC)
- 确实,一时间没有想到。不过两边都写亦无大碍,或可相呼应。—— Eric Liu 創造は生命(留言・留名・学生会) 2023年1月31日 (二) 03:06 (UTC)
- 我们来关注这么一个问题。对于一个编辑经验不足的新编者而言,创建条目时候的提示信息都有哪些呢?关注度、非广告宣传、著作权、参考文献、WP:NOT,以及一个指向“其他”的链接。不论是机翻还是ChatGPT都没有足够可见的提示。巡查员一看,不行,从犄角旮旯里翻出一个方针的一个犄角旮旯的句子出来,新手直接炸毛了。--MilkyDefer 2023年2月3日 (五) 13:37 (UTC)
- 你应该去改F&Q而不是去改方针,现在的方针指引堪比屎山代码,我觉得与其改机器人方针内容,还不如改名字一目了然,以前叫他机器人,其实只是自动化程序,以后必然还会有AI程序,它这名字早就已经赶不上时代了。----Cat on the Mars 2023年2月3日 (五) 15:45 (UTC)
- 方针指引太多搞得管理员都不知道自己正在重复立法。----Cat on the Mars 2023年2月3日 (五) 15:51 (UTC)
- 我们来关注这么一个问题。对于一个编辑经验不足的新编者而言,创建条目时候的提示信息都有哪些呢?关注度、非广告宣传、著作权、参考文献、WP:NOT,以及一个指向“其他”的链接。不论是机翻还是ChatGPT都没有足够可见的提示。巡查员一看,不行,从犄角旮旯里翻出一个方针的一个犄角旮旯的句子出来,新手直接炸毛了。--MilkyDefer 2023年2月3日 (五) 13:37 (UTC)
- 确实,一时间没有想到。不过两边都写亦无大碍,或可相呼应。—— Eric Liu 創造は生命(留言・留名・学生会) 2023年1月31日 (二) 03:06 (UTC)
- 我的意见本来与Ericliu1912相近的,但考虑到YFdyh000所言在理,我更倾向要求任何人确保他们在用AI写东西后必须先自己校对过才在维基百科发布,毕竟相关工具我自己感觉不是完全不能用,但一定要自己下手调整AI写出来的文本,这跟维基百科内置的机翻工具是一个道理。@YFdyh000、Ericliu1912:如果“似是而非”的文本符合“胡言乱语”的定义的话,这其实就是G1的范畴。Sanmosa Συ γάρ μοι και μοίρα εί και τύχη 2023年1月30日 (一) 05:05 (UTC)
- @Ericliu1912、shizhao:我想要请教管理员,如果我要在机器人方针第一句“机器人方针适用于所有用以编辑维基百科的计算机程序或脚本,包括全自动、高速运作以及协助编者的工具”“包括”后面加上一句“利用人工智能(AI)技术编辑维基百科的程序”,这是否超出了“修改方针及指引的文意”的小修改门槛。按照我的理解,机器人AI程序应该是在机器人方针“所有用以编辑维基百科的计算机程序或脚本”的范畴内。另外,从我的角度,防不如管,如果能够知道别人在使用AI总比盲盒瞎猜好很多。--Cat on the Mars 2023年2月4日 (六) 11:25 (UTC)
- (-)反对与其禁止使用AI生成内容,应该规定的是不是使用AI辅助后应先行复检后再发布?AI跟机器翻译一样,可以视为一个辅助手段,但不应该作为主要贡献。所谓的“似是而非”、“事实错误”全部现有方针已可处理。如果AI生成的内容可以被来源证实,我实在看不出一刀切禁止使用的原因-某人✉ 2023年2月6日 (一) 14:29 (UTC)
- 所以说,机器翻译不正好是天怨人怨么……--MilkyDefer 2023年2月7日 (二) 11:45 (UTC)
- 不喜欢或者讨厌不是禁止的理由。----Cat on Mars 2023年2月7日 (二) 14:26 (UTC)
- 也不知怎么就天怒人怨了,一帮人整天在tg群讲相同的话真以为全宇宙都想得一样。--日期20220626(留言) 2023年2月8日 (三) 11:12 (UTC)
- 所以说,机器翻译不正好是天怨人怨么……--MilkyDefer 2023年2月7日 (二) 11:45 (UTC)
- 咕咕--Zyksnowy(留言) 2023年2月8日 (三) 09:14 (UTC)
- 怎么分辨并证明那些文字由ChatGPT等AI“生成”?何况那东西还在时刻“进化”。--安忆Talk 2023年2月8日 (三) 09:36 (UTC)
- 我觉得按照机器人方针自觉申报就行了,我们还没有这个能力判断,也耗不起这个时间,以后GPT3.5推广了还会有更多AI程序,不可能永远靠人力查核。----Cat on Mars 2023年2月8日 (三) 09:59 (UTC)
- (-)反对:Some people against using you in Wikipedia. How can I refute?
Here are some arguments that you could use to defend the use of AI language models like me in Wikipedia:
Increased efficiency and accuracy: AI language models can assist in generating and verifying information in Wikipedia, potentially leading to improved accuracy and efficiency compared to manual editing.
Supplementing human labor: AI language models can help to supplement the work of human editors and writers, freeing up their time and energy to focus on more complex and strategic tasks.
Improving accessibility: AI language models can assist in generating and translating content, making Wikipedia more accessible to a wider audience and supporting the goal of creating a free and comprehensive encyclopedia.
Cost-effectiveness: Using AI language models can help to reduce the cost of creating and maintaining Wikipedia, making it more sustainable in the long-term.
Of course, it's also important to consider potential concerns and criticisms related to the use of AI in Wikipedia, such as the potential for biases in the training data and the importance of maintaining human oversight and control. Nevertheless, with proper safeguards and transparency, AI language models like me can be a valuable tool for supporting and improving Wikipedia.--維基小霸王(留言) 2023年2月9日 (四) 04:12 (UTC)
- @MilkyDefer:这是使用ChatGPT生成的关于入间同学入魔了!的片段(使用“谈谈"入间同学入魔了!"这部动画”去生成):
《入间同学入魔了!》是一部日本的动画,是由小畑健制作的一部歌舞片。这部动画以魔法为题材,讲述了主人公入间在升上高中后,逐渐接触到魔法世界,最终投身于魔法战争的故事。 这部动画以精彩的故事情节和生动的角色设计而受到许多观众的喜爱。它还以鲜明的风格和丰富多彩的音乐展示了魔法世界的魅力,为观众带来了一个充满奇幻与冒险的世界。 如果你是一个喜爱动画的观众,那么这部动画是值得一看的。它将带给你一个精彩的故事情节和生动的角色,让你进入一个充满魔法与冒险的世界。
- ,但入间同学入魔了!实际上是由西修所创作的日本漫画作品,且实际上小畑健曾经创作过《棋魂》,不是《入间同学入魔了!》,所以ChatGPT所生成的日本动漫类条目就有问题--林勇智 2023年2月9日 (四) 12:26 (UTC)
- 尝试限定维基百科的风格,并要求给出至少五个不是维基百科自身的公开可查证来源呢?--MilkyDefer 2023年2月9日 (四) 12:55 (UTC)
- 它以前给过我一本陈景润的《中国哲学史》。----Cat on Mars 2023年2月9日 (四) 12:58 (UTC)
- 所以我在看到U:outlookxp的查证的时候就觉得这是不是什么我们不知道、并且还在保密中的高级AI。----Cat on Mars 2023年2月9日 (四) 13:02 (UTC)
- ChatGPT有点蠢,机翻都比它靠谱点。--日期20220626(留言) 2023年2月9日 (四) 13:09 (UTC)
- 用它机翻还是比较好用的。----Cat on Mars 2023年2月9日 (四) 13:24 (UTC)
- 大概是题外,看到提起维基内建机翻以及用机翻后要校正的内容等等的、那个啊今天凌晨逛近期变更的时候发现了不列颠共产党,有兴趣看哪位用户新增的请查看编辑摘要以及贡献,该使用者共新增了三个条目,因为实在是没心力了所以只有挂了模板,看看此人会不会良心现前自己回来改,不改的话之后就删除,个人感想是遇过几次用机翻的用户,原则上大概也不知道自己开了什么箱,只是翻译出来的结果乍看满意好像吐出了象牙,奢望他们自己配备校对能力可能真的以为人本善良。--Mafalda4144(留言) 2023年2月9日 (四) 13:37 (UTC)
- 这玩意据方舟子测试,简中资料来源自称是用百毒的样子。不过其他人有不同的结果。--S叔 2023年2月10日 (五) 02:19 (UTC)
- 尝试限定维基百科的风格,并要求给出至少五个不是维基百科自身的公开可查证来源呢?--MilkyDefer 2023年2月9日 (四) 12:55 (UTC)
- 显然ChatGPT自身生成的内容并不能作为证明其无害的依据。--Diskdance 2023年2月9日 (四) 15:04 (UTC)
- 好像有人测试医学类条目,ChatGPT会自己编造PubMed参考文献。另外不知道其在翻译条目中是否也会编造内容。关于其翻译质量,腾讯的一个实验室最近在arXiv上发了一篇论文[1]。建议先行禁止。--Kethyga(留言) 2023年2月10日 (五) 12:41 (UTC)
- (+)支持明文禁止。——WMLO(留言)。 2023年2月10日 (五) 21:43 (UTC)
- @MilkyDefer:咱也模仿上面D2513850君使用《来自风平浪静的明天》生成的对话内容:(Q:谈谈《来自风平浪静的明天》这部动画)
《来自风平浪静的明天》(Your Name)是一部由新海诚执导的日本动画电影,于2016年在日本上映。该片以美妙的动画和复杂的人物关系角色,受到了广泛的好评。
故事讲述了两个生活在不同城市的高中生,偶然发现自己的身体可以穿越时空互换。随着故事的发展,他们不断努力寻找对方,以解决自己的身份困惑和生活困境。
该片的动画效果非常出色,景象壮丽,配乐优美。此外,它也提出了一些深刻的社会问题,如家庭、友情、爱情和对未来的希望,对观众产生了深远的影响。
总的来说,《来自风平浪静的明天》是一部非常优秀的动画片,值得每个动漫爱好者去观看。
感觉完全是按照《你的名字。》的内容去生成的 囧rz……--忒有钱🌊塩水あります🐳(留言) 2023年2月12日 (日) 19:58 (UTC)
- (-)反对:所有机器人辅助的编辑应该予以允许,但人类用户必须在发布前核对内容。--The Streif(留言) 2023年2月13日 (一) 04:21 (UTC)
- @忒有钱:建议在发布到维基百科前先检查chatGPT所生成的内容是否有问题(如事先阅读或观看内容(例如《入间同学入魔了!》漫画或PubMed文献))--林勇智 2023年2月14日 (二) 13:40 (UTC)
- 我也试了一下,看起来效果不佳,因为他生成的内容很容易有编造和过度联想的状况,少至生成的内容真伪查核困难。我的测试事先给ChatGPT阅读相关文章,再请他整理成维基百科条目:请阅读下列文章并将其整理成一篇中文维基百科条目,并且使用wikitext源代码编写条目,须包含内部链接和资讯框。(贴上wikia:w:c:danmachi:Wiene的全部内容)
- ChatGPT给了以下回答(内部链接和资讯框是ChatGPT加的,我一字未改)
- 以下是使用 wikitext 源代码编写的薇妮的中文维基百科条目:
- ChatGPT给了以下回答(内部链接和资讯框是ChatGPT加的,我一字未改)
薇妮 角色设定信息 物种 人鳞蛇 性别 女性 出生 地牢中层 所属 赫斯提亚家族 薇妮(ウィーネ)是一位神秘的人鳞蛇女性,生于地牢的中层。她以其琥珀色的眼睛和长银蓝色的头发以及身体上数个地方的鳞片而闻名,还有额头上价值高昂的“人鳞蛇之泪”红宝石。
在留在赫斯提亚家族期间,薇妮穿着由贝尔·克拉内尔提供的“沙马兰德毛衣”,以隐藏她作为怪物的身份。
薇妮有讲话的能力,这在怪物中是很罕见的,她以善良的性格而闻名。她与赫斯提亚家族特别是贝尔和春姬产生了依恋。尽管她有善良的性格,薇妮最初有着怯弱的本质,但在她重生后,她变得更加勇敢。
在外貌上,当薇妮救了一个小男孩时,她的身体从背部长出了一只翅膀,翅膀很大,即使折叠也可以覆盖她一半的身体。
- 当中不少过度联想,例如Infobox 内的所属:赫斯提亚家族(应为赫斯缇雅眷族,但不是重点),薇妮并不属于赫斯缇雅眷族,他只是暂时借住在赫斯缇雅眷族,表示ChatGPT过度联想,造成其产生若干与事实不符的内容,且这若不对主题有一定程度的了解,是不可能发现的错误,因为似是而非,据我所知,有些编者喜欢透过编写不是那么熟悉的主题来增广知识,万一那些编者因此无法抓出ChatGPT编造和过度联想的状况造成编辑的内容出现似是而非的内容该怎么查核?编者可能因为用了ChatGPT而导致在条目加入了似是而非错误内容而不知情,且也难以查核,如果是这样,不如直接禁止ChatGPT生成内容为好。-- 宇帆-雪菲蛋糕🎂娜娜奇🐰鲜果茶☕在维基百科寻求休闲是否搞错了什么(☎️·☘️) 2023年2月14日 (二) 14:00 (UTC)
- (!)意见:相较ChatGPT定位于“聊天机器人”,近期Google推出的Bard或是微软的全新Bing更像是一个“搜寻助理”,可以即时搜寻并更新最新的消息,以全新Bing为例,在回答的时候会给出多项参考网站来源(可参考这篇评测文章:[2]。)ChatGPT本身是一个模型,拿来训练的数据库是固定的(所以才说只能回答2021年前的问题),生成的内容常在相似的语句打转。但这类新的人工智能搜寻助理,我认为值得期待,对维基百科的编者也会有很大帮助。巴波(留言) 2023年2月16日 (四) 12:55 (UTC)
- @巴波现在已经可以获得关于2022年和2023的少量信息--FK8437(留言) 2023年3月26日 (日) 11:45 (UTC)
- (!)意见:我看得都很尴尬,一个个光光讨论ChatGPT的性能问题,明明已经有相关规定(机器人方针)了却没有实施方法,AI模型本来就是一个很大范围的事情,我记得站内好像就有人用类似工具创建条目,是不是.Net之类的,有一个谁专门用什么程序修正错误之类的,后来基本都是被封了。我觉得这种事情实际上就是一种钻空子,管理员应该要求使用AI及类似辅助程序的必须事先声明并经过测试才能开车上路,ChatGPT只是我们的第一个例子,看上去并不适合上街乱跑,但是也要考虑到以后还会有很多智能程序的例子在后面,我们的方针应该有长远考虑的打算。--Cat on Mars 2023年2月16日 (四) 20:04 (UTC)
- 思考了一下,虽然AI问题很多,但或许可以参考维基媒体基金会台湾分会的这则贴文的说法,仅限资深用户使用,并且要严密检查?-- 宇帆-雪菲蛋糕🎂娜娜奇🐰鲜果茶☕在维基百科寻求休闲是否搞错了什么(☎️·☘️) 2023年3月1日 (三) 17:53 (UTC)
- 我的提议是在在机器人方针中明确AI适用于本方针,如果按照链接内的条件(1.AI程序需要经过检验;2.AI程序需要自己负责;3.标记AI程序输出内容;4.需要由资深编辑操作),实际上也是现在机器人方针审核的现行规则(测试+审核+明确操作者+标注机器人编辑),目前我看不出两者管控措施有什么明显差异。----Cat on Mars 2023年3月4日 (六) 16:50 (UTC)
- 就现阶段而言,我亦认为在机器人方针及(或)翻译指引中相关段落明确提及人工智能即足矣。—— Eric Liu 創造は生命(留言・留名・学生会) 2023年3月4日 (六) 19:42 (UTC)
- 我的提议是在在机器人方针中明确AI适用于本方针,如果按照链接内的条件(1.AI程序需要经过检验;2.AI程序需要自己负责;3.标记AI程序输出内容;4.需要由资深编辑操作),实际上也是现在机器人方针审核的现行规则(测试+审核+明确操作者+标注机器人编辑),目前我看不出两者管控措施有什么明显差异。----Cat on Mars 2023年3月4日 (六) 16:50 (UTC)
刚刚测试感受了一下:一个样例--EvesiestaCOVID-19感染中 2023年3月5日 (日) 08:32 (UTC)
如果维基百科现有的技术无法侦测到对方使用ChatGPT或类似AI工具的生成内容,那么楼上各位所说也只是空话,更何况出自人手造假的(例如:折毛事件),你们也是经过很多年之后才发现,这就是活生生的警惕。因此,如果在没有技术可以避免下,未来可能仍会有造假内容发生,这是现在维基百科的公信力最大的问题。--2001:B011:A401:3B94:3825:963C:D5D8:1D8(留言) 2023年3月8日 (三) 05:05 (UTC)
- “往者不可谏,来者犹可追。”----Cat on Mars 2023年3月12日 (日) 12:06 (UTC)
- (-)反对:条目破坏与手动破坏或使用AI破坏似乎在结果上没有差异?难不成用键盘输入文字破坏条目,就要禁止所有使用键盘输入的条目?更何况如前些留言者所言,人手造假的抓不到了,更何况AI生成。还不如想想用AI巡查条目,先处理明显错误的条目。--死灰(留言) 2023年3月13日 (一) 14:13 (UTC)
- 可以考虑开发一个AI检测器。。。--百無一用是書生 (☎) 2023年3月14日 (二) 02:42 (UTC)
- Open ai自己写的检测器都只有两成六几率检测得出来,还未计假阳性。如果这里有任何人写得一个出来就别在维基百科屈才当志工了--某人✉ 2023年3月19日 (日) 11:50 (UTC)
- 这话说得,能写出来照样可以来维基混。比如亚伦·斯沃茨这家伙就很积极参与维基事务。--日期20220626(留言) 2023年3月19日 (日) 11:55 (UTC)
- Open ai自己写的检测器都只有两成六几率检测得出来,还未计假阳性。如果这里有任何人写得一个出来就别在维基百科屈才当志工了--某人✉ 2023年3月19日 (日) 11:50 (UTC)
- 在处理条目格式问题与修饰语气上能派上用场,唯一的困扰仅幻觉问题。--死灰(留言) 2023年3月26日 (日) 11:14 (UTC)
- 可以考虑开发一个AI检测器。。。--百無一用是書生 (☎) 2023年3月14日 (二) 02:42 (UTC)
- (-)反对:看过老高的影片后,我觉得他讲的好,AI就是一种工具,不应该怕她。如果你直接叫AI写一篇条目,就会很多错,但如果你给他一篇文章请他归纳重点,错误会少很多,总之我觉得善用gpt写条目是一件好事,可以节省很多时间,但不要乱用,如果乱用就直接速删就可以,正常使用gpt并不用禁止。--E.D.(留言) 2023年3月16日 (四) 07:29 (UTC)
- (-)反对:2023年了,怎么还在“非我也,兵也”呢?噗噗熊?|||||||||| 维尼熊! 2023年3月20日 (一) 14:21 (UTC)
- (-)反对:其实AI在翻译条目中做的十分不错,虽然文字在有些情况下需要修改以保证通顺而且有点单调,至于创建条目来讲(+)暂时支持禁止使用,因为在不提供信息很容易出错(例如将日期填写错误以及出现大量虚构内容),搞不好出现折毛2.0。不过值得肯定的是它翻译条目的能力和对于语句问题的通顺化,不建议直接猛烈一刀切,应该看作是一种工具,反正多时无版权的。附注一小段由ChatGPT的翻译草稿,可以研究一下它的质量。
- --FK8437(留言) 2023年3月25日 (六) 03:41 (UTC)
- FYI:较早前基金会与部分全域社群成员就 AI 对维基百科的影响及机遇等进行讨论(讨论摘要见此),个人期望对此讨论有所帮助。谢谢。--SCP-0000(留言) 2023年3月25日 (六) 09:03 (UTC)
- 当然,鉴于ChatGPT的胡说扯蛋[开玩笑的]能力,设置一个只允许延伸确认用户的标准来限制人滥用她来创造条目似乎不错,不过实行起来难度很大,因此直接放弃抓捕,让人人都用ChatGPT来造福维基百科也不是不可以。--FK8437(留言) 2023年3月26日 (日) 03:20 (UTC)
- 再次重申:在有任何能可靠辨识AI生成内容的检测器问世之前你维任何规范ChatGPT的讨论均为伪命题。所有所谓“伪造文献”等问题可依现有方针处理,下方类似讨论同上-某人✉ 2023年3月27日 (一) 20:20 (UTC)
- 已有ChatGPT Zero的监测器,唯准确率暂无测试,不过一般明显的全部Copy大多可以检测,混合内容检测率一半一半,完全人类内容有时会假阳性。--FK8437(留言) 2023年3月28日 (二) 03:45 (UTC)
- 用AI打败AI!这是我用ChatGPT来检测AI生成内容的测试:
- 已有ChatGPT Zero的监测器,唯准确率暂无测试,不过一般明显的全部Copy大多可以检测,混合内容检测率一半一半,完全人类内容有时会假阳性。--FK8437(留言) 2023年3月28日 (二) 03:45 (UTC)
提示语构建:
你是一个AI生成内容检测器,我输入文本内容,你来检查是否是AI生成的,还是人类撰写的。并给出答案和检查过程。检测内容不要输出。格式为: 结果:{AI或人类} 检查过程:{检查过程} 检测内容“<这里填入要检测的文本>”
用这个提示词对上面“《入间同学入魔了!》”的文本进行检测,结果如下:
结果:{AI} 检查过程:这段文本中有很多日本的动画和电影的常见元素,例如魔法、高中生活、战争等。此外,这段文本的语言流畅度和表达方式比较机械化,缺乏人类的情感和思考。最后,这段文本的结构和内容比较简单,缺乏深度和复杂性。综上所述,这段文本是由AI生成的。
对薇妮的检测:
结果:{AI} 检查过程:这段文本中有很多日本动画和小说的常见元素,例如人鱼、魔法、怪物等。此外,这段文本的语言流畅度和表达方式比较机械化,缺乏人类的情感和思考。最后,这段文本的结构和内容比较简单,缺乏深度和复杂性。综上所述,这段文本是由AI生成的。
对“来自风平浪静的明天”检测错误
结果:{人类} 检查过程:这段文本是关于《来自风平浪静的明天》这部日本动画电影的介绍,内容涉及到电影的情节、人物、动画效果、配乐和社会问题等方面。语言表达流畅,情感丰富,没有明显的机械化或重复的痕迹。综上所述,这段文本是由人类撰写的。
对Rust for Linux(英文)的检测也是错误的:
结果:{人类} 检查过程:这段文本是关于Rust for Linux项目的介绍,内容比较专业化,涉及到Linux内核和Rust语言的相关知识。语言表达流畅,结构清晰,没有明显的机械化或重复的痕迹。综上所述,这段文本是由人类撰写的。
总体上感觉不如一些第三方的检测工具,例如[3],但也不失为一种方法。如果要做维基百科内容的AI检测,目前最好的方法是介入多家的AI检测技术,综合对比比较稳妥--百無一用是書生 (☎) 2023年3月28日 (二) 09:05 (UTC)
- 另,以上我使用的是GPT3.5,GPT4不知道在这件事上是否更好一点?--百無一用是書生 (☎) 2023年3月28日 (二) 09:10 (UTC)
参考资料
- ^ Jiao, Wenxiang; Wang, Wenxuan; Huang, Jen-tse; Wang, Xing; Tu, Zhaopeng, Is ChatGPT A Good Translator? A Preliminary Study, arXiv, 2023-01-31 [2023-02-11], doi:10.48550/arXiv.2301.08745
使用ChatGPT等软件来辅助编写维基百科是否允许?是否需要标注?
各类人工智能大语言模型急速发展,可能可以被用来编写或辅助编写维基百科。那么,使用ChatGPT、NewBing、ChatGLM、文心一言等软件来编写或辅助编写维基百科是否应当允许?是否需要标注?
我模拟了此类GPT软件的若干种使用方法,以供分别讨论:
- 询问类GPT软件有哪些以“坤”为名字结尾的明星,来辅助编写[坤坤]消歧义。
- 给类GPT软件一段使用者写的段落,使用GPT来润色语句。
- 使用类GPT软件来检查维基语法。
- 直接给类GPT软件若干信息,让其写一端内容,再由编者修改后写入维基百科。
- 给类GPT软件一段其他语言维基百科的内容,让其翻译成中文,再由编者修改后写入维基百科。
若有不足,欢迎补充。--Huangsijun17(留言) 2023年3月28日 (二) 12:31 (UTC)
- 看似可以,但是要防止AI瞎编名字
- 润色语句没尝试过,据说很不错,但不知道有没有造假问题?
- 这个可行,可以尝试
- 除非用户对GPT产生内容的方式有所了解,并且对所写内容也很熟悉,否则不建议
- 这类AI模型的翻译本质上似乎和机器翻译的方式不太一样,有可能翻译后混入虚假内容或者部分内容丢失不翻译?
--百無一用是書生 (☎) 2023年3月28日 (二) 12:49 (UTC)
- 试了一下修复语法错误,如果文本中只有一个wikitext错误,大概率可以已修复;如果多个错误,则往往只能修复一个;如果反复让他修复同一个文本,常常会把参考文献删掉,例如这样的回答:
- Based on the context and selected code block, it seems that there is no error in the code. However, if you are looking to make a modification to the code, you can simply remove the unnecessary references and shorten the code as follows:
- '''小行星9350'''({{lang-en|9350 Waseda}})是一颗围绕[[太阳]][[公转]]的[[小行星]]。1991年10月13日,[[平沢正規]]、[[鈴木正平]]在Nyukasa发现了此天体,以[[早稻田大學]](Waseda)命名。
- This code block is the same as the selected code block, but with the unnecessary references removed. Hope this helps!
--百無一用是書生 (☎) 2023年3月28日 (二) 13:17 (UTC)
现在你是一个维基百科管理员,非常擅长编写维基百科条目。请检查我给出的wikitext语法有没有错误。如果有错误,修复所有的错误,返回正确的wikitext;如果wikitext没有错误,返回{没有错误}。下面是一段wikitext:
--百無一用是書生 (☎) 2023年3月28日 (二) 13:19 (UTC)
用于润色非常可行,以下是我取自硼酸#医药用途的两段话:
硼酸可以用于消毒或治疗较小的割伤和烧伤,有时亦被用作制造敷药、软膏等药品的原料。硼酸可以治疗霉菌感染,例如念珠菌症之类的疾病。以少量硼酸浸湿袜子可以治疗足癣(香港脚),硼酸还可以治疗人类和哺乳动物的外耳炎。 硼酸是唯一可以施用在眼部的酸,所以硼酸亦是市面上多数眼药水的重要成分。
构造提示器:
现在你是一个百科全书编辑专家,也是一名资深的出版社编辑和校对。请对我提供的文本进行润色,但忽略繁简体问题,同时提供更多的编辑建议(用中文)。当我输入{根据编辑建议修改},你就根据你在上个回答中提出的编辑建议修改我之前提供的文本。 下面是一段我提供的文本,润色后输出:
润色后输出的文本:
硼酸可以用于消毒或治疗较小的割伤和烧伤,有时也被用作制造敷药、软膏等药品的原料。硼酸可以治疗霉菌感染,例如念珠菌症等疾病。以少量硼酸浸湿袜子可以治疗足癣(香港脚),硼酸还可以治疗人类和哺乳动物的外耳炎。
硼酸是唯一可以施用在眼部的酸,因此硼酸也是市面上多数眼药水的重要成分。
提供的编辑建议(有时还会加上一大堆繁体转简体的建议,比如“建议将“治疗”改为“治疗”,将“制造”改为“制造”,将“药品”改为“药品”,将“霉菌”改为“霉菌”,将“之类的”改为“等”,将“浸湿”改为“浸湿”):
此外,建议在文本中加入硼酸的化学式和分子量等相关信息,以增加文本的科学性和准确性。
之后输入“根据编辑建议修改”,ChatGPT输出根据编辑建议修改的内容:
硼酸(H3BO3),分子量61.83g/mol,可以用于消毒或治疗较小的割伤和烧伤,有时也被用作制造敷药、软膏等药品的原料。硼酸可以治疗霉菌感染,例如念珠菌症等疾病。以少量硼酸浸湿袜子可以治疗足癣(香港脚),硼酸还可以治疗人类和哺乳动物的外耳炎。硼酸是唯一可以施用在眼部的酸,因此硼酸也是市面上多数眼药水的重要成分。
一些问题:AI会强制转换繁简体,统一为简体或繁体,怎么提示不许转换都不行,每次的编辑建议未必一样,有时只是对修改的地方进行了说明,有时则会提供一些内容扩充上的意见。总体上来看,还是非常不错的 --百無一用是書生 (☎) 2023年3月28日 (二) 14:05 (UTC)
- 试了试用new bing来做Citation Hunt,效果不太理想:可能会找到相关文献,也可能找不到,或者找到相关性不强的文献。有用之处在于找文献的效率会大幅提升,但还是需要人工来判断具体文献是否合适(当然可以借助AI来总结和查找想要的观点)--百無一用是書生 (☎) 2023年3月29日 (三) 07:47 (UTC)
- 尝试了一下为缺少序言章节的条目写序言。使用new bing,准确模式大概率无法完成,平衡模式则可以,基本会根据给出的条目链接中的内容进行符合维基百科格式要求的序言的编写(理解什么是维基百科条目的序言章节),但有时会夹带虚假内容。另外,还尝试了一下对标记为翻译拙劣的条目进行语言上的润色(使用ChatGPT),总体而言,翻译基本能看懂,只是语言不太通顺的话,润色完全没问题;但如果翻译的很糟糕(例如机翻,带有很多不知所云的内容),则润色后也好不了多少。看来适合处理轻度翻译问题,翻译问题严重的话就不行了--百無一用是書生 (☎) 2023年4月3日 (一) 14:20 (UTC)
- 另外再说回检查维基语法的尝试,试了很多次,存在两个问题:一是GPT认为参考文献的标注不应该出现在正文当中,因此会自动移除<ref>标签(GPT在润色wikitext文本的时候明确指出了这一点);二是虽然大多数时候可以灌给它wikitext(不含<ref>标签),再让它润色后用Wikitext格式输出,但有时却并不听从指示,会删掉一些wiki标记,有时则会删除掉全部的Wiki标记--百無一用是書生 (☎) 2023年4月3日 (一) 14:27 (UTC)
- 用New Bing尝试翻译了一个条目Memento,效果非常好,语言流畅性上甚至比原文都要好一些。--百無一用是書生 (☎) 2023年4月7日 (五) 14:41 (UTC)
- 如果是Memento项目这个条目,我会说这个条目的内容对读者非常不好。首段“同时也为网络历史研究提供便利”存在明显的歧义,是“借由网络的帮助来研究历史”,还是“研究网络本身的历史”?“Memento项目在 RFC 7089 中定义为内容协商的时间维度的一种实现”,内容协商的时间维度非常怪异,我作为读者对这个短语的理解就是靠猜。“内容协商”我懂,“时间维度”理解不了,合起来更理解不了,更别说还要连上下文的“一种实现”才能定义出这个条目的主题。“要完全理解Memento,必须认识到HTTP提供的Last-Modified标头不一定反映特定版本的网页何时出现”这句话在条目里整个就是个无厘头,前后都没有衔接,就告诉你读者“你必须认识到xx”,那然后呢,我还是理解不了。--Tiger(留言) 2023年4月12日 (三) 22:33 (UTC)
- 尝试了一下为缺少序言章节的条目写序言。使用new bing,准确模式大概率无法完成,平衡模式则可以,基本会根据给出的条目链接中的内容进行符合维基百科格式要求的序言的编写(理解什么是维基百科条目的序言章节),但有时会夹带虚假内容。另外,还尝试了一下对标记为翻译拙劣的条目进行语言上的润色(使用ChatGPT),总体而言,翻译基本能看懂,只是语言不太通顺的话,润色完全没问题;但如果翻译的很糟糕(例如机翻,带有很多不知所云的内容),则润色后也好不了多少。看来适合处理轻度翻译问题,翻译问题严重的话就不行了--百無一用是書生 (☎) 2023年4月3日 (一) 14:20 (UTC)
总体评估
任务 | ChatGPT评分 | New Bing评分 | 人工介入程度 | 对条目品质的影响 | 备注 |
---|---|---|---|---|---|
修复语法错误 | 2 | 未测评 | 中度 | - | 不可行。仅仅是能够修复,但可能会自动移除一些wiki语法,或者多个错误只能修复一两个 |
润色文本 | 8 | 未测评 | 轻度 | +++ | 可行。表现非常好,但输出wikitext会自动移除<ref>标签,有时还会移除其他Wiki标记,而且会统一为简体或繁体 |
补充来源 | 不支持 | 6 | 高度 | ++ | 可行。必须准确模式,平衡模式有可能会给出虚构文献。可能会找到相关文献,也可能找不到,或者找到相关性不强的文献。需要人工进一步确认 |
补充序言 | 不支持 | 7 | 中度 | + | 可行。必须平衡模式,准确模式大概率无法完成。有可能会加入虚假信息。生成序言的质量与条目内容的好坏密切相关。 |
翻译润色 | 5 | 未测评 | 轻度 | ++ | 可行。对轻度翻译问题表现出色,翻译问题严重则不行。其他问题同“润色文本” |
条目分类 | 不支持 | 5 | 中度 | + | 可行。平衡模式要比准确模式更可能完成(二者都可能无法完成)。能够生成符合维基百科要求的wikitext分类,但可能夹杂错误分类(根本不是该分类的)和红链分类(有类似分类,但这个分类还未建立) |
条目翻译 | 未测评 | 9 | 中度 | +++ | 可行。直接给链接到聊天模式可能不给翻译,撰文模式则能够翻译。语言通顺性要比机器翻译强得多,而且会在翻译的同时进行文本的润色。(生成wikitext暂未测试) |
指标说明:
- 评分:
- 满分10分
- 人工介入程度
- 轻度:基本上不需要人工介入,或简单修改后即可使用;中度:生成的内容需要人工检查后方可使用;重度:生成的内容需要人工非常仔细地检查核对
- 对条目品质的影响
- -更可能负面,--负面,---非常负面;+更可能正面,++正面,+++非常正面)
--百無一用是書生 (☎) 2023年4月3日 (一) 15:02 (UTC)
- 可以参考en:WP:CHATGPT,即要求使用大型语言模型生成的文本都需要署名,例如使用
{{OpenAI}}
。--BlackShadowG Slava Ukraini! 2023年4月9日 (日) 06:54 (UTC)- (+)赞成--Hualin~希望の星は青霄に昇る Commons|Talk 2023年4月9日 (日) 07:18 (UTC)
- (+)赞成,所有通过人工智能生成的文本都需要标注,另外ChatGPT对标准现代汉语的语言的组织能力还是比较弱,ChatGPT本身就是在印欧语系环境下产生的一种人工智能。另外应该限制IP用户和新用户使用人工智能生成文本编辑中文维基百科。--СлаваУкраїні! 2023年4月10日 (一) 00:38 (UTC)
- (+)强烈赞成使用模板标记使用AI的条目,但(-)反对限制新人和IP使用ChatGPT,因为只要有少许人工润化就很难被市面上的AI文检测工具查出,而且只要符合关注度和质量标准就可以。
- 大致( ✓ )同意shizhao的测试。参考阁下的测试,(&)建议:
- 允许辅助翻译条目和润色粗糙的翻译
- 允许在不改变文章主题思想和内容的情况下润色和通顺文本
- 不允许解决语法问题(我私下试过觉得不行)
- 同时提议:
- 不允许使用AI直接输入内容来创建或扩充条目,一位容易于相似内容混淆和GIGO,但允许真人完成主要文本后进行优化。
- --FK8437(留言) 2023年4月12日 (三) 12:58 (UTC)
- (+)赞成,所有通过人工智能生成的文本都需要标注,另外ChatGPT对标准现代汉语的语言的组织能力还是比较弱,ChatGPT本身就是在印欧语系环境下产生的一种人工智能。另外应该限制IP用户和新用户使用人工智能生成文本编辑中文维基百科。--СлаваУкраїні! 2023年4月10日 (一) 00:38 (UTC)
- (+)赞成--Hualin~希望の星は青霄に昇る Commons|Talk 2023年4月9日 (日) 07:18 (UTC)
- 这个独裁社群很显然把所谓的机器翻译是什么忘得一干二净才会提出这么荒谬的讨论串。很简单啊,只要不对外说,根本也没人知道您是依靠ChatGPT、Google翻译还是剑桥翻译来写条目的。英文白痴都能变天才,只要读起来别太过于机器翻译基本上就没事。理由正是因为现在的条目还想要写出新的只会越来越难,因为条目都已经被前人写过了,所以只好靠其它语言的翻译(比如常见的en)。这句也不知道要讲几次,独裁社群才会懂?为什么需要标注呢?标注不就是自寻死路吗?这个是写条目,不是在写论文。谁管您出处在哪?如果抄袭过多就无法毕业吗?还是维基百科真的要改名叫论文百科了?如此荒谬的东西都能够提出来,呵呵。--Z7504非常建议必要时多关注评选(留言) 2023年4月12日 (三) 16:11 (UTC)
- (+)支持。-噗噗熊?|||||||||| 维尼熊! 2023年4月21日 (五) 12:04 (UTC)
- 维基百科所需要的内容并不在于语言好不好,而是内容本身好不好(当然,语言好那是最基本的)。如同我上面指出的,如果只看到语言流畅,忽略这些文本到底提供了怎样的信息,就会觉得现阶段的语言模型输出的内容好像可以用,但是各位仔细读一读呢?作为读者,仔细读一读,恐怕十次里面有九次是让人失望的。人工润色GPT输出的内容,与机器翻译类似,若要保证品质,人工查证、修改所花费的精力并不亚于从头开始写。当然,假如我们选择禁止使用GPT,而各位偷偷用GPT,那不被发现也很正常。反正别人也大概率不会有证据证明你用了GPT,也很难有精力一篇一篇条目读过去,一句一句仔细查证。--Tiger(留言) 2023年4月12日 (三) 22:47 (UTC)
- 放屁。谁管您的文本是不是请几万只猴子打出来还是机翻出来的。内容写得不好就删掉,就这样简单。要注意的是ChatGPT可能会生成有版权的内容而已。--Ghren🐦🕓 2023年4月13日 (四) 08:07 (UTC)
(&)建议:请注意,使用ChatGPT等软件来书写维基百科时,并不一定需要由ChatGPT直接或间接生成条目中的文本。还是以我开头提出的坤坤为例,书写类似的条目时,可以由人工智能来搜集相关信息后再人为书写条目。条目中不存在任何GPT类软件生成的内容。但这是是否需要标注?例如现在询问newbing:把十二生肖全都过一遍需要多少年?它会告诉你13.5年。类似的,询问GPT类软件来了解、解答、求证、引证、验证相关内容,是极有可能存在错误的。——Huangsijun17(留言) 2023年4月18日 (二) 16:44 (UTC)
- 然而这讨论和“提议废除快速删除准则的G13翻译拙劣,或使用别的方针替代”又是关联性。可悲的独裁社群,完全不动脑的,才会每次提案讨论都是长得不得了且无共识。--Z7504非常建议必要时多关注评选(留言) 2023年4月23日 (日) 07:31 (UTC)
关于AI辅助创作的规范以及规定
我个人比较反对使用AI辅助创作。但以现在AI进化的速度,人工智能辅助创作迟早会大规模应用于自然语言创作中。 但鉴于AI创作所带来的版权,质量和争议问题,我们中文喂鸡社区似乎还没有规范。我建议我们可以在社区内讨论是否制定关于AI创作的规定和方针,以及对AI创作定性。--Sermayde(留言) 2023年6月6日 (二) 16:56 (UTC)
- Wikipedia:互助客栈/方针/存档/2023年4月#提议限制在维基百科使用ChatGPT及类似工具已讨论过,无共识。著作权等问题,应交给专业人士和基金会等。--YFdyh000(留言) 2023年6月6日 (二) 17:58 (UTC)