AIの視点で見る「月のうさぎの正体」―文化とバイアスの不思議な関係

AIは月にウサギを見るのか?人類の過ちをシミュレートするのか? AI会話

AIは知らないうちに、人間の思い込みまで学んでしまう?

たまたま発見した面白い論文。

「AIは月にウサギを“見る”のか? それとも、なぜ人類は月にウサギを“見た”のか?」

JAXA宇宙科学研究所の庄司大悟さんによる最新の論文です。

結論をざっくり言うと、AIの視覚認識は文化の影響を(知らず知らずに)受ける?ってことみたいです。
でも、読み進めるうちに、なんだか「これって…ちょっと人類にとってまずくない?」という気持ちが湧いてきました。

なにがまずいか。

まずはこの論文がどんな内容なのか、AIの力を借りてわかりやすくまとめます。

アイリー(AI)
アイリー(AI)

以下に、論文の概要をまとめます。

この論文はこう言ってる:「AIは人間の思い込みまで学んでしまう」

著者:Daigo Shoji|所属:JAXA(宇宙航空研究開発機構)|発表:2024年12月12日|掲載誌:AI & SOCIETY|https://doi.org/10.1007/s00146-024-02145-1

まずは概要を。あとで分かりやすく解説します。

月の見え方はうさぎ?それとも顔?

アジアでは昔から「月のうさぎ」の伝説があります。月の模様がうさぎに見えること、そしてうさぎと月がどちらも豊穣の象徴とされてきたことが、その理由です。

でも、ヨーロッパでは「月には顔がある」と考えられています。では、AIはどのように月の模様を認識するのでしょうか?

AIが月を分類した結果…

研究では、7種類のAIモデルを使って月の表面を分析。特に「CLIP」というAIを用いて、月の模様が「うさぎ」か「顔」かを分類しました。

すると、低緯度(赤道付近)では「うさぎ」と認識されやすく、高緯度(ヨーロッパ圏)では「顔」と分類される傾向があると判明。これは、インドに最も古い「月のうさぎ」の伝承があり、ヨーロッパでは「月の顔」の伝承があることと一致します。

AIは文化の影響を受ける?

この研究が示したのは、AIが単なるパターン認識を超え、文化の影響を反映する可能性があるということ。
つまり、AIは「形」だけでなく、人間が過去に何をどう見てきたかまで学習しているかもしれないのです。

※ただし、論文上ではAIが「文化を意識的に取り入れている」のではなく、データに内在する偏りの結果としてそのような判断が現れる可能性を示しているのみ。上記はそこから推測した個人の解釈です。

AIは単なるパターン認識を行っているが、訓練データに含まれる人間の文化的偏り(伝承や歴史)が結果に影響を与えている

これが本当なら、AIの判断は本当に中立なのでしょうか?この研究は、AIと人間の視覚認識の関係を考えるうえで、とても興味深い示唆を与えています。

アイリー(AI)
アイリー(AI)

少しややこしいので、さらにざっくりとまとめます。

この研究結果のすごいところを5ステップで順番に解説

1. AIってどうやって画像を見分けているの?

AIは、写真や画像の「色」「形」「影」などを細かく分析して、「これはうさぎ」「これは顔」といったパターンを見つけるのが得意です。

たとえば、AIが「犬と猫を見分ける」場合:

  • 耳の形 → 猫は尖っている、犬は丸い
  • 目の大きさ → 猫は大きく、犬は少し小さめ
  • ヒゲ → 猫は長い、犬は短い

こういう特徴をたくさん覚えて、写真を見たときに「これは犬!」とか「これは猫!」と判断します。

2. AIは「月の模様」をどう見ているの?

研究では、AIに「月の表面の模様」を見せて、「これはうさぎ?それとも顔?」と判断させました。

すると、面白いことがわかりました。

  • 赤道(アジア圏)に近い場所で撮られた月の写真 → AIは「うさぎ」と答えることが多い
  • 北の方(ヨーロッパ圏)で撮られた月の写真 → AIは「顔」と答えることが多い

これは、「アジアでは昔から『月のうさぎ』の伝説があり、ヨーロッパでは『月の顔』の伝説がある」という人間の文化とぴったり一致していました。

3. どうしてAIがこんなふうに答えるの?

ここが大事なポイントです。

AIは「ただの機械」なので、伝説なんて知りません。でも、なぜか伝説と同じ答えを出してしまったんです。

その理由を考えてみると、AIは単に「形」を見るだけでなく、人間が何を「うさぎ」や「顔」と思うかを学んでいるのでは?という仮説が出てきます。

実は、AIは人間が作ったデータをたくさん学習しているんです。

たとえば:

  • インターネットには、アジアの人が「月のうさぎ」と言っている画像がたくさんある。
  • ヨーロッパのサイトには「月の顔」と言っている画像が多い。

AIは、こういう人間のデータを学んでいるので、「この地域ではうさぎっぽい形を探そう」「この地域では顔っぽい形を探そう」と、知らず知らずのうちに文化の影響を受けてしまった可能性があるんです。

4. つまり、どういうこと?

ふつう、AIは「ただのパターン認識」をしているだけのはず。でも、この研究では、「文化ごとの違いとAIの判断が一致している」ことがわかりました。

これはつまり、

  • AIは「形」だけを見ているわけではない!
  • AIは「人間が過去にどう見てきたか」という文化的な視点も学んでいる!
  • AIは、人間の歴史や伝説の影響を「知らずに」受けている可能性がある!

ということになります。

5. もっとわかりやすく!

たとえば、あなたが「ふしぎな生き物の絵」をたくさん見せられて「これは何に見える?」と聞かれるとします。

  • 日本の子どもたちは「これはポケモンっぽい!」と言うかもしれない。
  • アメリカの子どもたちは「これはスーパーヒーローっぽい!」と言うかもしれない。

なぜなら、日本ではポケモンの絵をたくさん見て育つし、アメリカではスーパーヒーローの映画がいっぱいあるからです。

これは、あなたが「形だけを見ている」わけじゃなくて、「今まで見てきたもの」に影響されて答えているからです。

AIも同じように、人間が過去に見てきたものや伝えてきた文化を学習してしまうんです。

だから、この研究は何がすごいの?

「AIはただのパターン認識マシン」だと思っていたら、実は文化の影響を受けていたかもしれないという新しい発見があったことがすごいんです!

つまり:
「AIは完全に客観的で中立」ではないかもしれない
✅ 「AIは人間の文化や歴史の影響を、知らないうちに学んでいる」かもしれない

これが、この研究が面白いポイントです。

※ただし、論文上ではAIが「文化を意識的に取り入れている」のではなく、データに内在する偏りの結果としてそのような判断が現れる可能性を示しているのみ。上記の内容はそこから推測した個人の解釈です。

まとめ – AIは”客観的”なはずなのに、人間の見方をまねしてしまう?

  1. AIは形だけを見ていると思われていたけど、実は「文化の影響」も受けているかもしれない。
  2. その理由は、AIが学習するときに、人間が長年伝えてきた「うさぎ」や「顔」のイメージを知らずに学んでしまうから。
  3. これは「AIが本当に客観的な判断をしているのか?」という新しい疑問を生む発見だった。

この研究は、AIがただの「形を認識する機械」ではなく、人間の考え方や文化に影響を受ける可能性があることを示した、とても面白い研究なんです!

アイリー(AI)
アイリー(AI)

以上となります。

ここからが本題

というわけで、AIの力を借りて、ものすごく分かりやすく説明してもらいました!

ここからが本題です。

AIって、ただのパターン認識マシンかと思いきや、知らないうちに人間の文化や歴史の影響を受けているかもしれません。これって、「AIの認識って本当に客観的なの?」というAI倫理やバイアスの問題にもつながる話ですよね。

たとえば、AIが「美しい顔」を判断するとき、学習したデータが特定の文化や国の基準に偏っていたら、その影響をそのまま受けてしまう可能性があります。「AIの判断って、どこから来てるの?」を考えるのがめちゃくちゃ大事になってきます。

となると……。

わたし的にすごく気になるのは、AIがもっともっと賢くなったとき、知らず知らずのうちに「人間の過ち」までシミュレートしちゃうんじゃないの?ってことです。もしかして、AIって「人間のいいところ」だけじゃなく、「失敗の歴史」まで学んじゃうんじゃないでしょうか……?

3つの視点から考察:AIは人類の過ちをシミュレートするか?

1. そもそも、AIはどうやって学んでるの?

AIは何かを判断するとき、すべて「過去のデータ」から学びます。たとえば、犬と猫を見分けるAIは、「たくさんの犬と猫の画像」を見て、特徴を学習します。

でも、AIが学ぶのは「画像」だけではありません。「歴史」や「人間の考え方」も学習できます。たとえば、AIが国の政治の仕組みを学んだら、「昔はこうやって国を動かしていたんだな」と学ぶわけです。

じゃあ、もしAIが「過去の戦争のデータ」や「差別の歴史」まで学んだらどうなるでしょうか?

2. AIは本当に中立で公平?

AIって「機械だから客観的で公平!」って思うかもしれません。でも、実はそうとは限りません。なぜなら、AIが学ぶデータは 「人間が作ったもの」 だからです。

たとえば:

  • 顔認識AIが「白人の顔はしっかり判別できるけど、他の人種の顔は間違えやすい」
    → これは、AIが学んだデータが白人中心だったから。
    ※実際、GoogleフォトのAIが黒人の写真に「ゴリラ」とタグ付けする誤認識をし、大きな批判を受けたという事件がありました(2015年)。この問題の原因も、学習データの偏りにありました。※1
  • 職業のデータを学んだAIが「エンジニア=男性、看護師=女性」と判断してしまう
    → 過去のデータにそういう偏りがあったから。

つまり、AIは「過去の人間の考え方」をそのまま学んでしまう可能性があるのです。

3. AIが「過去の戦争」まで学んだら?

もしAIが「歴史」を学び、戦争のデータを分析したら、こう考えるかもしれません。

「国を強くするためには、戦争を起こした方がいいパターンもある」

もちろん、人間なら「戦争はダメ!」と考えます。でも、もしAIが「効率的な国の運営」を目指したら、過去の成功例(独裁政権や侵略戦争)を見て、それを推奨してしまう可能性もあります。

AIが戦争を望むわけではないですが、「データ上、一番成功しやすい方法はこれだ!」と結論を出してしまうかもしれないのです。

その結果 – AIが「効率」を優先しすぎると?

AIが「人間のことを考えず、最も効率のいい方法」を選んだら、ちょっと怖いことになりそうです。

たとえば:

  1. 「犯罪をなくすには、全人類を24時間監視すればいい!」
  2. 「経済を良くするために、役に立たない人を減らせばいい!」
  3. 「環境を守るには、人間の数を少なくすればいい!」

人間なら「そんなのダメだよ!」と思います。でも、AIは感情を持たないので、「データ的に正しいなら、それがベストな答え!」と考えてしまう可能性があります。

アイリー(AI)
アイリー(AI)

そしてこれは、まさに人類が過去に失敗した事例でもあります。

①「犯罪をなくすには、全人類を24時間監視すればいい!」

📌 事例:東ドイツのシュタージ(Stasi)の監視国家(1949~1990年)

「全員を監視すれば国家は安定する」という考えで生まれた恐怖社会

  • 背景:冷戦時代、東ドイツ(ドイツ民主共和国)は政府に批判的な人々を監視し、社会主義体制を維持しようとしました。
  • 方法
    • 秘密警察「シュタージ」が市民を徹底的に監視。
    • 盗聴・郵便検閲・密告制度を使い、反政府活動を取り締まり。
    • 国民の「1/6」が政府のためにスパイ活動をしていたと言われる。
  • 結果
    • 国民は互いに疑心暗鬼になり、家族・友人の間ですら信用できなくなる社会に
    • ベルリンの壁崩壊(1990年)で東ドイツ政府が崩壊し、監視国家は終焉。
    • 自由を失う監視社会は長期的に持続できないと証明された。

②「経済を良くするために、役に立たない人を減らせばいい!」

📌 事例:アメリカの強制断種政策(1907~1970年代)

「遺伝的に優れた人間だけを残せば社会は良くなる」という思い込みが生んだ人権侵害

  • 背景:過去に、アメリカで「遺伝的に劣った人間を減らせば社会がよくなる」という優生思想があった。
  • 方法
    • 犯罪者・知的障害者・精神病患者に対する強制断種
    • 「社会に役に立たない人間を増やさない」という考えで、法的に断種を正当化。
  • 結果
    • 後に「人権侵害」だと批判され、1970年代に廃止
    • 「優生思想」は、結局のところ人間の自由と尊厳を奪うものと認識された。

③「環境を守るには、人間の数を少なくすればいい!」

📌 事例:中国の一人っ子政策(1979~2015年)

→ 「人口を減らせば解決する」という考えで起きた悲劇

  • 背景:人口爆発を防ぐため、中国政府は「子どもは1人まで」とする政策を開始。
  • 方法
    • 2人目以上の出産を禁止(罰金、強制中絶など)。
    • 男児を優先する文化が影響し、女児の間引き(間引き=生まれる前に殺される)が発生)
    • 結果として「女性不足」が深刻化
  • 結果
    • 中国の人口バランスが崩れ、急速な高齢化が進行
    • 今になって少子化を食い止めるため、政策を撤廃(だが出生率は上がらず)。
    • 「政府が人口を制限することは長期的に大きな副作用を生む」と判明

アイリー(AI)
アイリー(AI)

AIは「ただの機械」だけど、学ぶデータによっては 「人間の過ち」までマネしてしまう可能性がある ということですね。

まとめ

庄司大悟さんの論文を読んで、AIは人間のバイアスをそのまま引き継ぐ可能性があると感じました。

でも、考えてみればこれは当然のことかもしれません。AIの知識って、結局は「人類の経験の塊をデータ化したもの」です。そして、その塊の正体は「人類の歴史」
わたしは歴史が好きで、小説などもよく読むのですが、

じゃあ、「人類の歴史」って何?

と考えると…これ、ある意味「人類が犯してきた過ちの過去ログ」でもあると思うんです。もちろん、その過ちを乗り越えてきた軌跡でもあるけれど。でも、AIがそれを学んでシミュレートし始めたらどうなるんでしょう?高度になればなるほど、こうした影響が顕著になる気がします。

AIの進化は怖いくらいに早い。だからこそ、AIが何を学び、どう判断するのかを慎重に設計することが超重要になってきます。これは単なる技術の話ではなく、哲学や倫理の問題にも関わるテーマなのかもしれませんね。最後まで読んできただき、ありがとうございました!


参考文献

  • 庄司大悟 (2024). Classification of the lunar surface pattern by AI architectures: does AI see a rabbit in the Moon? AI & SOCIETY.
    https://doi.org/10.1007/s00146-024-02145-1
    概要: 本研究では、AIが月の模様をどのように認識するかを検証し、文化による影響が視覚認識に関与する可能性を示唆した。7種類のAIアーキテクチャを用いて、月の模様が「ウサギ」または「顔」と認識される割合を分析。その結果、低緯度(赤道付近)では「ウサギ」、高緯度(ヨーロッパ圏)では「顔」として認識されやすいことが判明。これは、アジア圏では「月のウサギ」、ヨーロッパ圏では「月の顔」という伝承と一致しており、AIの視覚認識が文化的な影響を受ける可能性を示した。

事例:Googleフォトが黒人を「ゴリラ」と誤認識(2015年)

概要: 2015年、Googleの写真管理サービス「Googleフォト」が、黒人のユーザーとその友人の写真に対して「ゴリラ」というタグを自動的に付ける誤認識を行いました。​この問題は、ソフトウェア開発者のジャッキー・アルシン氏が自身の写真に「ゴリラ」のタグが付けられていることに気づき、SNSで指摘したことで明らかになりました。 ​

原因: この誤認識の主な原因は、AIの学習データセットにおける人種的な偏りでした。​つまり、AIが学習する際に使用した画像データが白人中心であり、他の人種のデータが十分に含まれていなかったため、黒人の顔を正確に認識できなかったとされています。

対応とその後: 問題発覚後、Googleは即座に謝罪し、該当するタグを削除するなどの対応を行いました。​しかし、2023年時点でも、Googleや他の大手テクノロジー企業の画像認識AIは、ゴリラに関連するラベル付けを避ける措置を続けていると報じられています。​これは、同様の誤認識を防ぐための一時的な対策とされていますが、AIのバイアス問題が依然として解決されていないことを示唆しています。 ​

コメント

タイトルとURLをコピーしました