
芸人・川西賢志郎さんの「いま知りたい!」に迫る、連載「川西賢志郎が知りたい!」。お笑いの世界で長く活躍してきた川西さんが、改めて“お笑い以外の世界”や見たことのなかった世界を覗いたとき、そこにはどんな気づきや発見があるのだろうか?あしたメディアでは、そんな川西さんの探検にご一緒させていただくことに。川西さんと、各回のテーマに造詣の深い方との対談形式でお届けする。
連載3回目の今回、川西さんが知りたいと話したのは、フェイクニュースのこと。昨今、SNSを中心に溢れ、現実にも大きな影響を及ぼす場面も増えたように感じる。そんなフェイクニュースについて川西さんは、多くの人がインターネット上には誤った情報が存在すると認識しているにもかかわらず、これほどまでに信じられてしまうのには人間のどんな心理が関わっているのか。そして、川西さん自身もどうすれば信じたい情報ではなく、正しい情報を受け取ることができるのかについて知りたいと思い、関心を持ったそう。
今回は、東京科学大学教授でインターネットの情報環境に関する研究を行い、『フェイクニュースを科学する:拡散するデマ、陰謀論、プロパガンダのしくみ』(化学同人、2021年)と『ディープフェイクの衝撃 AI技術がもたらす破壊と創造』(PHP研究所、2023年)の著者、笹原和俊さんへインタビューを実施。前後編の2回に分けてお届けする。前編では、フェイクニュースはいつ生まれたのかや、笹原さんが行っている研究の話を深掘りする。

今回の対談相手
笹原和俊:1976年福島県生まれ。2005年に東京大学大学院総合文化研究科博士課程修了。博士(学術)。現在は東京科学大学環境・社会理工学院の教授。専門は計算社会科学で、著書に『フェイクニュースを科学する:拡散するデマ、陰謀論、プロパガンダのしくみ』、『ディープフェイクの衝撃 AI技術がもたらす破壊と創造』がある。
可視化過多の時代のメディアリテラシーとは
川西:笹原さんはこれまでフェイクニュースに関する著書なども出されてますが、それには何かきっかけがあったんですか?
笹原:2016年にアメリカのインディアナ大学で1年間研究をしていたときの体験です。当時はちょうど大統領選挙が行われており、SNS上である事ない事が拡散されているのに、それは誤りであるという訂正記事は全く拡散されていませんでした。私は元々物理学を研究していたので、この現象を数理的な視点で見てみたいと思ったのがきっかけですね。
川西:多くの人から注目を集めるきっかけの一つになったのが大統領選挙だと思うんですが、フェイクニュース自体は2016年より前から存在していたわけですか?
笹原:存在していました。ただ、SNSの利用者が増えて、“フェイクニュース”と呼ばれるものが大規模に拡散されるようになったのが、2016年の終わりだったと思います。大統領選挙のときも、SNSが影響力を持ち始めているなという実感がありました。
川西:僕も芸人としてTwitter(現X)のアカウントを作ったのが、2010年代の前半だったと思います。そのぐらいから周りもライブの告知でTwitterを活用したり、世間的な広まりも感じていました。
笹原:おそらく日本でTwitterが流行るきっかけになったのは、東日本大震災だと思います。私はそのとき東京にいましたが、電話が繋がらないなかで、安否確認や物資不足などの情報を安定的に共有して拡散できるプラットフォームとしてTwitterが動いていたと記憶しています。しかし、次第にフェイクニュースや誹謗中傷が気軽に書き込まれる場へと変化していきました。

川西:TwitterなどのSNSは、うまく使えば人を救えるものになりますが、使い方次第で人を傷つけるものにもなる。どうしてこうなっちゃったんですかね?
笹原:1つは、インターネットの利用に慣れている人だけではなく、これまで触れる機会がなかった幅広い層がSNSを使うようになったことです。誰もが手軽に情報発信ができるようになった一方で、メディアリテラシーを十分に学ぶ機会のなかった人が使うようになったことで、フェイクニュースに限らず、悪口や誹謗中傷も書き込まれるようになりました。
川西:確かに、昔はお茶の間でテレビを観ながら、ぼそっと言っていた意地悪をいまはインターネットで発信するようになった。その結果、伝わることのなかった言葉まで可視化されるようになり、不必要に空気を悪くさせてしまっているというか。それに、SNSはすごく身近なものだけど、多くの人が使うようになったことで、自分の発信に責任が付き纏っているという意識は低くなってるんでしょうね。
笹原:いまは可視化過多の時代だと思います。一時期、“情報を見える化しましょう”というのが流行りましたが、あまりにも人々の一挙手一投足が可視化されすぎていて、本当は自分の心に留めておけばよかったものがどんどん出てしまっている。それがもうその人の将来を決めてしまうぐらいに影響力があるものになっているというのが問題ですよね。
なぜ人は誤った情報を見たときにワンクッション置いて考えることが難しいのか
川西:いまはフェイクニュースに関してどんな研究をされていますか?
笹原:ディープフェイクと呼ばれるAIで生成された偽の画像や動画、音声を検知するツールの開発プロジェクトに参加し、そのツールをSNS上で活用する研究に特に力を入れています。人々がディープフェイクを含んだコンテンツに出会ったとき、共有してよい情報なのかを、どうすればワンクッション置いて考えてもらえるのかについて検討しています。
川西:ワンクッション置いて考えてもらうっていうのは、対面で喋っていたらまだコントロールできると思いますが、インターネットの世界でもできるんですか?
笹原:一番単純なやり方は、「これは改ざんされている可能性が高いです」といった警告を出すことです。ただ、警告を出すとみんなが共有をやめるんじゃないかと思いますが、これが逆効果になるということも分かっていて。たとえば、動画を1回見てもらって、その途中で「この情報は改ざんされている可能性が高い」という警告を出すと、共有をやめようとする人が多いんです。ところが、動画を見て警告を出すという一連の行為を4回繰り返すと、今度はむしろ共有する人が増えるんですよね。
川西:どうしてですか?
笹原:理由の1つは、そもそも人は警告前に「これは共有するんだ」とあらかじめ決めているのに、「改ざんされている可能性が高い」と言われると、自分の中に矛盾する考えを持つ“認知的不協和”という状態になり、不快感を抱きます。共有することが正しいと思っている際に、AIに警告を出されることで、むしろその警告に抗うように行動したくなるということです。
川西:反抗期の子どもみたいな感じですね。お風呂に入ろうと思っていたけど、親に「風呂入りなさい」って言われたら、もう入りたくなくなるみたいな(笑)。
笹原:それに近いです(笑)。警告が1回だけだったら共有をやめていたのに、何回も言われると、かえって自分の行動に意固地になってしまう。これをバックファイア効果と呼ぶんですけど、そういうことが私たちの実験で明らかになってきています。なので、もしこの警告システムをSNSに埋め込む場合には、どういうタイミングや頻度で警告を出すべきかを注意深く考えないと、むしろ共有させやすくしてしまうんです。
川西:親が子どもに対して、どういうタイミングや口調で声をかければいいかというのと同じですね(笑)。

やっぱり正しいものは正しいんだと伝えることに威力はある
川西:いまお話いただいたのはシステムに指摘された警告に対して人が抗ってしまうという場合ですよね。同様に、自分が妄信的に信じてしまったニュースについて、「それは事実ではない」と人から言われたとしても、結局“事実ではないという事実”を受け入れられないといったこともあるかと思います。その場合も、同じ心理の働きになるのでしょうか?
笹原:そうです。指摘する際は同じくタイミングなどを注意深く考えなきゃいけないので、長らくバックファイア効果の研究がなされていました。実践の観点でいうと、最近までは、バックファイア効果によって、返って誤った情報を信じてしまうので、直接的に事実を伝えることは避けた方が良いんじゃないかという風潮がありました。しかし、最近の研究で、バックファイア効果が起こるかもしれないけど、一部の人にはやっぱり証拠を伝えた方が良いという研究結果が出てきたんです。
好奇心が強かったり、自分で調べる力がついている人は、様々なことを疑うという傾向があり、そういう人たちに対しては、ちゃんと丁寧に証拠をベースに反証した方が、行動を変える可能性が高いという研究結果でした。全員がバックファイアを起こすわけではなく、やっぱり正しいものは正しいんだと伝えることに威力はあるということです。
川西:本来すごくシンプルに考えたら、「いやそれ間違ってるよ、だってここで正式にこう発表されてるから」って言ってあげるだけで完結する話のように思えます。ただ、人間が関与しているからこそ、人間が人間に何かを教える難しさがありますよね。やはり最終的には人間関係に近いですね。
笹原:人間が人間に言うことで問題が生じているという点を逆手に取る研究もあります。AIが「これはこういう理由で正しくない」と第三者として説得したことで、陰謀論から解放されたという研究結果があります。
川西:なるほど。確かに、こいつに言われたら癪に障るけど、この人が言うことやったら信じるとか、そういうことってありますもんね。
笹原:いままさに言われた、「この人の言うことだったら信じよう」というような“信頼”が生まれるAIを作れば、正しい情報を人間が受け入れやすくなるのではないかという研究を、私自身新たに始めようとしています。先ほどの研究であった警告も、一人ひとりに合わせたパーソナルエージェントがタイミングや頻度を調整すれば、もう少し素直に受け取ってもらえるのではないかとも考えているからです。
川西:パーソナルトレーナーみたいですね。その人の身体の癖とかに合わせて、どういう運動をさせるべきかとか、いま何を改善すべきかとかを考えた上で、その人の癖を見抜いて、こういう言い方をしようと決めるといったような。でも、人間を最後に改めさせるのは、人間が作り出したAIっていうことは悲しいですね。「何してんねん人間」ってなりますよね(笑)。

今後SNSは変わっていくのか
川西:笹原さんは、いまのフェイクニュースや誹謗中傷が溢れているSNSの状況は変わると思いますか?
笹原:変わると思っています。いまは、人々がプラットフォームに滞在した時間がお金になるので、刺激の強い情報ばかりが目立つようになっているわけです。なので、プラットフォーム企業は、短期的にはそれをやめるようなことはしないと思います。ただ、中長期的な視点に立って、そういう不健全な状況を続けることを是とする企業やメディアをユーザーは使い続けたいかと考えると、いまのSNSで起こっている問題を改善しようとするプラットフォームが将来的には好まれる可能性もありますよね。
川西:たとえばファストファッションでも、安くて質が良くて、それなりに長く着られるものがたくさんあり、そういった服の方が手に取られやすい気がします。僕自身も、ファストファッションのお店の服を手に取ることもあります。けれども、安く大量生産をして、売れ残ったら廃棄しちゃえばいいというビジネスモデルの中には、とても低い給料で製品を作らされている人たちがいるという事実が世間的にも知られつつある。そうすると、ファストファッションではなく、持続可能で長く着れる品質の良いものを、高くても選ぶ人たちも出てきますよね。同じようにSNSもそうなっていく可能性もあるかもしれないと思いました。
笹原:やっぱり搾取し続けられるのは誰も良しとはしないですよね。我々が何気なく投稿しているデータでプラットフォームのAIは学習をしています。でもプラットフォーム側は、特に我々の情報の健全性に関して何も対応してくれません。どういうふうに我々はSNSと付き合っていくべきかという認識は、今後変わっていく可能性があります。

川西:プラットフォーム側で健全なSNSを制作しようという動きは、現状ではまだないですか?
笹原:研究のレベルでは、いろいろ我々もアイデアを出したりはしています。ただ、今のところ積極的にプラットフォーム側が変えようとすることはないですね。やはり短期的にはユーザーがいなくなり収益が損なわれると考えているので、いくら研究者が提案しても、ビジネスモデルに沿わないんです。それでも、健全なSNSを作るための試みをしていかなければならないと思っています。
▼後編はこちら

川西賢志郎(かわにし・けんしろう)
1984年1月29日生まれ、大阪府東大阪市出身。2006年から2024年3月までお笑いコンビ「和牛」として活動し、「M-1グランプリ」にて2016年から2018年の3年連続で準優勝を獲得。コンビ解散後は芸人活動を続け、ライブやテレビ番組、ドラマなどに出演。
取材・文:目黒智将
編集:前田昌輝
写真:服部芽生
最新記事のお知らせは公式SNS(Instagram)でも配信しています。
こちらもぜひチェックしてください!
▼連載「川西賢志郎が知りたい!」の過去記事はこちら
