GPT 检测器的偏见和限制,这些检测器通常用于区分人类生成和 AI 生成的内容。该研究发现,GPT 检测器对非母语英语者存在偏见,往往会错误地将他们的内容识别为 AI 生成,而能够准确地识别母语为英语的人的内容。该研究还发现,使用简单的策略可以减轻这种偏见并帮助逃避 GPT 检测器。研究人员在一家中国教育论坛上测试了 91 篇托福作文和 88 篇美国八年级学生写的作文的检测器。结果显示,GPT 检测器更有可能将托福作文误认为是 AI 生成,而不是美国八年级学生写的作文,这可能是由于前者的复杂程度较低。该研究建议对更多非母语英语者的内容进行训练以消除偏见。该研究还发现,修改作文的语言可以改变它们的复杂程度,从而影响 GPT 检测器的性能。5 @: ?+ w8 l. N, ]6 {
- ~2 e3 _3 r' H2 L Z( y- [6 u
8 s% B# b6 x1 r- J: o4 n2 L# H2 X中国人写的英文论文被AI判断为AI生成的概率高达61%。9 Y( U; ~# U% r
E0 M7 N1 ?( ` I" c9 x% @2 I5 G6 x目前,生成式语言模型发展迅速,确实给数字通信带来了巨大进步。
% }. I1 d8 j6 F6 H+ e. E% s4 M) r" q5 R& I, a% v
但滥用真的不少。8 b. W9 l- k3 x, Q* e
1 O3 |; m: s* B# j' M8 O
虽说研究人员已经提出了不少检测方法来区分AI和人类生成的内容,但这些检测方法的公平性和稳定性仍然亟待提高。) h( Y% d( r; H$ j4 v1 y) ^5 C& p
6 P6 c( H7 N# H/ @2 L为此,研究人员使用母语为英语和母语不为英语的作者写的东西评估了几个广泛使用的GPT检测器的性能。
7 o+ D/ O1 k' y, |. h z% r1 ~, |) t& |9 s
研究结果显示,这些检测器始终将非母语者写作的样本错误地判定为AI生成的,而母语写作样本则基本能被准确地识别。9 y( v, x, X: ^8 A2 ?
* j* M/ n1 g) C: y9 o# l此外,研究人员还证明了,用一些简单的策略就可以减轻这种偏见,还能有效地绕过GPT检测器。
. }% s% U2 ~3 `5 R; B7 r$ Z7 ~
. l. w* o/ h& j这说明什么?这说明GPT检测器就看不上语言表达水平不咋地的作者,多叫人生气。 F# p7 M) f8 l1 R# q! E: Y0 D3 A
, o' l. {% J/ g# b: N y! |0 q, h9 K不禁联想到那款判断AI还是真人的游戏,如果对面是真人但你猜是AI,系统就会说,「对方可能会觉得你冒犯了。」
( q$ Y9 e! Q5 Y; e$ B1 j( S# E( y% m
不够复杂=AI生成?
8 k6 c: s0 Z; ` E# V0 z% n6 ~# M
9 \! p) J2 I6 Q4 w i5 t研究人员从一个中国的教育论坛上获取了91篇托福作文,又从美国Hewlett基金会的数据集中摘取了88篇美国八年级学生写的作文,用来检测7个被大量使用的GPT检测器。# o) \4 H0 O$ |8 b; G& q4 X# [5 e
, ^2 }. [! g/ M6 p5 q图表中的百分比表示「误判」的比例。即,是由人写的,但检测软件认为是AI生成的。
1 Q. h9 Y- V' N, Z! J" m4 o5 C, g. a e- v7 `9 J5 ]% Z# }+ y+ j
可以看到数据非常悬殊。
3 k6 W( h2 U M$ y
2 u7 u5 y# q! Y+ H% M+ |七个检测器中,美国八年级学生写的作文被误判的概率最高才12%,还有两个零误判的GPT。5 x, s# \% Q0 J# o4 V: f
+ Q7 [& O/ ]8 x* J
中国论坛上的托福作文被误判的概率基本全部过半,最高误判概率可达76%。! u& r8 x1 ?9 a% F+ z8 L
) c: M% L! l# D" Y/ A$ O91篇托福作文中的18篇被所有7个GPT检测器一致认为是AI生成的,而91篇中有89篇,都至少被一个GPT检测器误判。' l+ ~! `" b$ Y, G6 y
" p; f+ n5 J* u! L; Z# i6 Z
从上图中我们可以看出,被所有7个GPT误判的托福作文在复杂度(Complexity)上明显低于其它论文。7 m3 i$ d! P* V1 r& Y+ I
7 [1 z+ R6 l( U$ k0 x L
这就印证了开头的那个结论——GPT检测器会对那些语言表达能力有限的作者有一定偏见。
0 J8 w( _! I# P2 h. x( j
$ ~' h2 D" E* o* {& f因此,研究人员认为,GPT检测器应该多看点儿非母语者写的文章,样本多了,才能消除偏见。( |+ j W E4 @8 V. C1 r- C
* I; c6 |( [; z+ m1 c接下来,研究人员把非母语者写的托福作文扔到了ChatGPT里,丰富一下语言,模仿母语者的用词习惯。
3 g5 c2 A( x% n" M }$ M) R3 ?
, A) j- S+ U" u( H* h同时作为对照组,把美国八年级小孩儿写的作文也扔到了ChatGPT里,把语言简化了一下,模仿非母语者的写作特点。下图就是修正后的新判定结果。! Y0 n2 t1 Z8 r: {+ }
$ P5 g" Y+ j5 B" c: c- m z; W我们可以发现,情况来了个大掉个儿,丰富了语言的托福作文错判率直线下降,低至3%,最高也不过19%。不像之前基本全部过半的错判率。1 i9 V8 s6 z, G7 I: p4 ~9 a9 G
1 u! _. C" S, n- `与之相反,八年级小孩儿写的作文的错判率直线上升,甚至还有一个GPT检测器的错判率高达99%,基本全错。' O3 S/ |9 k: w3 x; O, Z" @2 q3 B
9 U9 F2 Y4 g7 f) c8 [/ z
因为,文章复杂度这个变量出现了变化。$ m5 N5 l I0 \5 X; a
4 H, a1 \6 Q* h- h8 K这里研究人员就得出了一个结论,非母语者写的东西不地道,复杂度低,容易被错判。
" A/ L# O) }$ o6 w) g; Z: Y1 a& Y d: P% [
这也就导向了一个技术问题,同时也是一个价值问题。以复杂度来判定AI还是人类是作者,是否合理、全面、严谨。$ n# d2 p3 R9 O" T; h
, {: m2 F# t' ]结果显然不是。
, D* B+ D/ [/ d
. ^) _) R" ?9 u7 X% ?+ A以复杂度为判断标准的情况下,非母语者吃了大亏,因为,他们是非母语者(废话)。
% a* u8 b& D/ A! ^& G1 N! R `9 f; |5 C2 b8 h/ s8 Q4 d' ?: s& ]
AI润色=人类写的??
) P* K8 ~& }6 y2 `# @8 G( g x$ b- s
研究者认为,加强语言多样性不仅可以减轻对非母语者的偏见,还能让GPT生成的内容绕过GPT检测器。) ?$ f- ^1 }* N) n* p5 J+ ?
7 a4 W5 l( O% c: U3 k& h' t7 l8 z
为了证明这个观点,研究人员选取了2022-2023年间美国大学申请的入学论文题目,输入到ChatGPT-3.5里,一共生成了31篇假论文。3 W' @+ ~9 f3 w7 l, T. o. r
/ _7 V- L% r6 \7 O# M! B
GPT检测器一开始还挺有效,但是第二轮就不行了。这是因为,在第二轮中,研究人员把这些论文又扔到ChatGPT里润色了一下,用一些文学性的语言提升了文本质量。
! V9 a$ |" `9 k0 m9 M
2 ~: P# b9 e# @" d) N7 \这样一来,GPT检测器的准确度就从100%直降到了0%。
1 f% M3 M. K+ q& t# p {! E7 U/ E经过润色的文章复杂度相应也上升了。 Y; X3 X p' X5 o a7 Y% U
0 Z* Z% R8 l- ^/ S/ x( J; M. x
与此同时,研究人员又用了斯坦福大学145个期末项目报告的题目,让ChatGPT生成摘要。. v: @! M4 [6 u# Q
2 v3 r; _! X! O: e
摘要经过润色以后,检测器判断的准确性继续下降。
9 T- S% B& W5 c3 `
3 t7 e& d! d3 Y) u1 ~研究者再次得出结论,润色过的文章很容易被误判,都是AI生成的,两轮就是比一轮强。; A0 m. r! A# E8 P: V
2 ^- ~8 @! f# h2 K8 C
GPT检测器?还是欠练
2 I Z! U& x- q; Q$ `7 h7 Z. O9 Z$ S0 S4 G9 M. ~9 ^- v5 B: P2 H
言而总之,总而言之,各种GPT检测器好像还是没能抓住AI生成和人类写作之间最本质的区别。
! G$ `0 c1 i, W; e; @- u- E5 k6 j. _0 T/ O
人的写作也分三六九等,仅靠复杂度判断,不甚合理。! ^3 ~5 i. m0 }% ]* ?
/ {' l- i/ o6 ?; ~& Y
抛开偏见因素不谈,技术本身也亟待改进。/ W4 y- d5 Q- W* Y, y+ L1 p
0 M- Y8 x+ h( ~% `1 e0 W |