チャットGPTによって作成された文章を見分けることができますか?

最近、妙に一般的に感じる記事を見つけました。それがChatGPTや他のAIツールによって生成されたものかもしれないと思い、AIによる文章かどうかを見分けるためのポイントを知りたいです。AIが作成した文章を特定するための見分け方や、検出ツールに関するアドバイスがあれば教えてください。

うん、言いたいことはわかるよ。その「なんとなく見覚えがあるけど、妙に味気ない」感じね。時々、本当にネットの半分はロボットの軍団が書いてるんじゃないかと思うことがある。私が普段チェックするのはこういうところ:まず第一に、文章が妙に繰り返されてること。「the」みたいな単語が何度も出てくるんじゃなくて、「重要なのは…」みたいなフレーズが段落ごとに登場するパターン。二つ目は、トーンが超中立的。まるで過剰に気を遣うカウンセラーが、誰もどこも傷つかないように怖がってるみたいな感じ。三つ目は、こういう記事って構成大好き――導入、3つの箇条書き、結論――コードで組まれたみたいにガチガチ。「結論として…」とか、記事の途中で出てきたりするの見たことある?あれはAIっぽさ満点。それに、書かれてる事実がめちゃくちゃ一般的。面白いうわさ話も、変わった意見も、変な例えもなし――ただ安全な教科書レベルの情報だけ。そしてまったく個人的な体験談がなかったら?チャットボット感が溢れまくる。でも正直、最近AIの質が上がってきて、見分けるのが本当に難しくなってきた。私がわかるのは、「前述の通り」みたいなフレーズが何回も出てきたら、ちょっと怪しいなって思うくらい。

正直なところ、私の経験では、人工知能の執筆は@星の狩人が指摘するほど常に無垢でも中立でもありません。ChatGPTが生成した記事は、ときどき会話調になろうとしたり、'人間らしい’意見を入れたりすることがありますが、その深みがどこかちぐはぐです。つまり、表面的な意見や修辞的な問いかけをしても、実際には本当の決意や掘り下げをまったく回避しているんです。「独自の視点」を紹介していると言いながら、最後まで全部が浅いまま――実際にリスクを取ったり、奇妙だったり欠陥のある人間特有の論理を見せたりはせず、ただ安全で、アルゴリズム的に繋ぎ合わされた解説だけが続きます。

もうひとつ分かりやすい特徴は、ChatGPTなどのツールが文法を本当に人間らしく崩すことがほとんどない点です――中途半端な考えや、変な脱線、タイプミスや癖の強い表現もほとんど見かけません。人間が書いたら、大抵ちょっとしたミスや、つながりすぎた文、ふと笑ってしまう内輪ネタなども出てきますよね?人工知能は、わざと汚くしてほしいと頼まれない限り、普通は全てをきれいに磨きすぎてしまいます。それに、「バランスの取れた」リスト、例えば賛否両論リストが毎回同じ長さになることに気づいたことはありませんか?あれはまさに人工知能だと私は思うんです。

一つ異論を唱えたいのは、「一般的」な情報だけが人工知能の特徴、という考えです――人間のライターでも淡白な「SEO量産」コンテンツを量産する人はたくさんいます、特に低予算のサイトでは。しかし、内容自体があらゆる場所に置き換えられそう――いくつか単語を換えて、テーマを変えればどこでも成立しそうな記事の場合、それは高確率で人工知能、あるいはとても退屈しているゴーストライターの仕事です。いずれにしても、人工知能の痕跡を探しているなら、無難で細部を避けた滑らかさを探してください、単なる冷たい繰り返しだけじゃありません!