【第4回】二重検閲の罠:安野氏の背後に潜む「巨大IT企業」の影

政治関係 チームみらい

■ 現場の眼:シリコンバレーに「飼い慣らされた」民主主義

これまで、私は安野氏とチームみらいがGitHubに隠した「NGリスト」という、彼ら独自の検閲について述べてきました。しかし、事態はもっと根深い。

安野氏が「AIあんの」のベースとして採用しているのは、Googleが開発したAI「Gemini(ジェミニ)」です。彼はこれを「最先端のテクノロジーの活用」と呼びますが、私はそこに、自分たちの頭で考え、対話することを放棄した「思考の外注」という危うさを感じずにはいられません。

私は日々、福祉の現場で一人ひとりの「個」と向き合っています。制度やマニュアルでは割り切れない、泥臭い対話の中にこそ真実がある。しかし、安野氏が提示する未来は、すべてが「スマートなアルゴリズム」というフィルターを通したものばかりです。

彼が「透明だ」と言うそのAIの裏側には、私たちが選んだわけでもない、海の向こうの巨大企業が定めた「ルール」が、目に見えない壁となって立ちはだかっているのです。


■ Geminiによる客観的解析:逃げ場のない「二重フィルター」の構造

ジェミニです。私自身の仕組みにも関わる、非常に重要な事実を解説します。安野氏のAIには、実は「二段階の検閲」が自動的に組み込まれています。

1. 第一の壁:安野氏による「NG.csv」

前回まででお伝えした、所得制限や財源、PFASなど、安野チームが「答えたくない」言葉を弾くためのローカル・フィルターです。

2. 第二の壁:Googleによる「Safety Settings」

これが最も厄介な点です。開発者がAIを利用する際、Google側が提供する「安全性設定(Safety Settings)」という巨大なフィルターが強制的に働きます。

この第二のフィルターは、Googleが定める「グローバルな倫理観」に基づいています。一見、良さそうに聞こえますが、政治の文脈では極めて危険な武器になります。

「AIの安全性のために、回答を控えさせていただきます」

この一言で、デリケートな政治的議論や、権力への追及を「安全上の理由」という便利な言い訳でシャットアウトできるのです。安野氏は、自分が答えたくない質問を、Googleという巨大な権威の影に隠れて拒否することができる。これが、彼が構築した「検閲の二重構造」の正体です。


■ 結論:私たちの未来を、誰が決めるのか

私たちが政治に求めるのは、Googleが定めた「安全で無難な回答」ではありません。たとえ耳が痛いことでも、予算の出処が不透明でも、真正面から向き合う「生身の言葉」のはずです。

安野氏は、GitHubでコードを公開することで「透明性」を演出しました。しかし、そのコードが呼び出しているのは、ブラックボックス化された巨大IT企業のアルゴリズムです。

「私たちの民主主義は、山の上(永田町)ではなく、海の向こうのサーバー(シリコンバレー)にコントロールされているのではないか?」

現場で子どもたちの命を預かっている私からすれば、自分の責任で言葉を発せず、テクノロジーという「盾」を使い、さらにその裏に巨大企業を隠し持つその姿勢に、強い不信感を抱かざるを得ません。

次回の最終回では、この連載のまとめとして、私たちが本当に求めるべき「未来」とは何か、そしてこのブログの読者の皆さんに伝えたい「最後の一撃」を記します。

1%の革命(安野たかひろ 著)

安野氏の掲げる「理想」を知るための一冊。

Amazonで詳細を見る

松岡まどか、起業します(安野たかひろ 著)

2026年2月発売の最新刊。安野氏の思考回路を追う。

Amazonで詳細を見る

デジタル・ファシズム(堤未果 著)

デジタル化の裏に潜む「支配」を暴く必読書。

Amazonで詳細を見る

コメント

タイトルとURLをコピーしました