AI生成YouTube「総節約時代サロン」はこちらから

AI政治家はまったく万能ではない!「AIはあくまで補助ツールの立ち位置」

記事内に商品プロモーションを含む場合があります。
  • URLをコピーしました!

どうも、太陽です。(No76)

 

突然ですが、「重要な政策は人間ではなくAIに任せるべき」という風潮が欧州では広がっています。

以下の記事によると、すでにデンマークでは「人工党」という政党が、2022年5月に立ち上がっています。

 

同党は「政策はすべてAIに任せる」という政治思想を掲げているそうです。

また、ノルウェーでは「AIを活用した政治がすでに開始されている」とのこと。

「重要な政治判断をAIに客観的に評価してもらう」というのですから、驚きです。

 

AI政治家に一任する現実になったら、政治判断の透明性や公平性が確保されるかもしれません。

現代の政治判断では、忖度やしがらみ、偉い人の顔色、関係者の利権などを考慮するので、透明性や公平性は犠牲にされます。

AIが判断すれば「より公平で客観的で的確な提案が生まれるのだろう」と。 

もちろん、すべての人が満足する政策などなく、誰かが得をすれば誰かが損をします。

ですが、最大多数の最大幸福?の意味合いで、なるべく多数が満足する効率的な提案ができる可能性があります。

  

AI婚活であれば、同じ魅力の者、相性の良い者同士をマッチングさせます。

で、おそらく高望みが本能の人間からすると、「相手に満足しない」可能性が高いです。

しかし、「AIが判定した」という錦の御旗があるので、ある意味、受験の偏差値のようなものであり、有無を言わさない迫力があります。

「そういう提案をAIならできる」という可能性はあります。

 

また、受験なら現実を受け入れないなら多浪生になるか、進学しないになり、就活なら「就職できない」になります。

ですが、婚活だと、「年齢という壁にぶつかって初めて現実の厳しさを知り、そして手遅れになり、独身になる」という流れです。

別に、「好きでもなく一緒にいて楽しくもないのに結婚生活をする意味があるか?」といったら疑問符なので、「独身の道もありだ」と思います。

しかし、「本当は結婚したい人」には現実に結婚できる相手の候補を示すのは大事で、それができるのがAIになります。

 

他には、例えば、日本では高齢者が多く、政治家は高齢者の票を気にした政策を実行します。

で、日本の未来図を考えた場合、未来ある若者に資源配分をしたほうがよく、AIの一党独裁政治になれば(政権交代なし・選挙なし)、割を食らう高齢者も文句が言えなくなります。

AIの使い方としては、有無を言わせない最適解という迫力があり、それに反対する者は「利害関係者や利権がらみ」というレッテルを貼られます。

ですので、「最大多数の最大幸福?に近い政策を実行できる」という面があります。

 

しかし、僕は果たしてAIに「最大多数の最大幸福?に近い政策を打ち出せるのか?」に疑問を持っており、今回の記事を書きました。

このテーマに興味がある人は続きをお読みください。

目次

1 AI政治家はまったく万能ではない!AIはあくまで補助ツールの立ち位置。

AIが理想の政治をする、つまり「政策立案をし、実行する」として、以下の問題があります。

AIが最適解の政策立案をできるのか?問題です。

 

天気予報の予測精度は、全国を対象とした年平均値が83%ですが、それは長年に渡るデータの蓄積があるのと、ある程度の規則性があるからでしょう。

大雨などでも、「観測史上初」というニュースも時々みかけますが、データから外れた予測は無理です。

 

そして、政策立案の場合、過去のデータを読み込ませることはできますが、規則性という面がかなり怪しいのです。

例えばライドシェアの場合、仮に「外国でライドシェアをまだ実行していなかった」と仮定するとしましょう。

で、AIに「ライドシェアの導入をしたらどうなるのか?」と予測させても、現状のライドシェアの状態を言い当てるのは無理な気がします。

こんなことが実現可能になっているのなら、政策立案だけじゃなく、経営企画にも適用できます。

その結果、経営において失敗がなくなりますが、「実現していませんよね?」って話です。

 

AIは過去のデータを基に、規則性がある場合に、予測するのは得意です。

ですが、規則性がない、新たな変数が多く登場し、複雑系の世界においては、通用しないのです。

囲碁・将棋や自動運転レベルの複雑系の世界では通用しそうですが、政策立案・経営企画においてはきついでしょう。

 

将棋の場合、単に、経験量と情報処理能力で、相対的に将棋が強いのがAIなだけです。

人間は寿命が100年ぐらいで、しかも現役で通用するプロ棋士は20・30代だと思います。

で、AI棋士はAI同士で戦わせ、それこそ人間で例えるなら、途方もなく生きて将棋を指した経験量・データと、素早く正確でミスのない情報処理能力があるので、AIは強いのです。

 

また、結果が出たことにより、政策立案の良し悪しが証明されますが、「その結果が出た」というのも、大いに怪しいです。

一時的な結果で、中・長期的に見たら、イマイチだった可能性もあります。

例えば、少子化対策でいえば、「1人1000万円配る」という案は短期的には少子化が改善しそうです。

ですが、中・長期的にみたら、1000万に飛びつくのは情弱層なので、「頭が悪い人が増える」という予測が成り立ちます。

住宅政策においても、長期的に見たら、富士山噴火・地震・災害が起き、住宅を大量に建てたら壊れていたなんて可能性もあります。

さらには3.11なんてAIには予測不可能だったでしょう。

(3.11により、福島県の住宅政策は影響を受けたはずです)

 

突発的に、過去になかった新たな変数が生まれるので、AIの政策立案はまったく万能じゃないのです。

 

また、ChatGPTなどの生成AIの場合、それらしいことを堂々と言う場合があります。

今でこそ、「ChtatGPTも嘘をつく」と分かりますし、正確なデータがある場合には検証できます。

ですが、政策立案や企画発想の場合、結果が出るのが未来になります。

そして、その政策立案をした過程も人間には理解できないブラックボックスになる可能性があり、人間には嘘なのか検証できません。

 

精神科医のフロイトの理論は間違っていましたが、長年、信じられ、権威がありました。

「それらしいことを言う」と、難解であればあるほど、さらにAIや権威ある人間を盲信している人間であれば「そんなものかな」と思ってしまいます。

過去の哲学者は、結果が検証されないことをいいことに、やたら小難しいことを言います。

そして、皆が「理解できない」と言っても、「哲学とはそんなものだ」と煙に巻いていた人もいそうです。

 

囲碁の事例で証明されましたが、本当に強い囲碁AIは人間には何を指しているか意味不明です。

そういう結果が出て有能さや強さが証明されて、中身や過程が人間には理解できないブラックボックスだとしたら、政策立案とは相性が悪いのです。

結果が出るのが、下手したら30年後なども普通にあるでしょう。

また、「中身や過程が検証できない・人間には理解できない」としたら、AIを信じるしかないです。

ですが、ChatGPTも嘘を堂々と言うことから、「それに賭けるの?」と僕なら思ってしまいます。

 

また、芸術品の場合、ある意味、人気が出るのは運やメディアでのプッシュが関係します。

さらに主観(好き嫌い)ですから、小説で言えば、それらしいこと(フィクションですからOK)を書くChatGPTと相性がいいです。

芸術作品の場合、主観(好き嫌い)なので、ある意味「売れれば、人気が出れば何でもOK」であり、嘘つきChatGPTであろうが、問題ありません。

(そもそも、芸術作品はフィクションが多いのもあります。リアリティが問題視されても「アニメ・マンガだし」で終わります)

 

以下の記事にあるように、芸術作品の良し悪しなんて、好みですから、そこそこの出来栄えなら、満足する人もいます。

 

それにしても、ChatGPTの生みの親であるOpenAIは、人間よりもはるかに賢いAIである「超知性」が「2033年までの10年間で開発される」と推測しています。

しかも「超知性を確実に制御する方法の構築も目指している」とのことで、要らぬ心配をしている気がしますね。

(万が一のことも考えて、研究する姿勢も理解できますが)

 

また、以下の記事にあるように、子供が不登校になる可能性を予測するAI開発において、人間が理解できる変数をもとに点数化し、実際の学校で検証する試みは面白いですね。

AIを盲信して過程や変数をブラックボックス化せず、結果が出る場面において、実際に検証するので、興味深いです。

 

さて、仮に「AIが最適な政策立案を打ち出せるようになった」と仮定しましょう。

その場合に起こるのが、現場がAIの政策通りに、きちんと機能し、実行し、働くか?問題です。

「わかっていてもできない」のが人間なので。

 

予算の問題も生じるでしょう。

(理想の最適解の政策だとしても、予算が足りない可能性もあります)

 

また、以下の「ChatGPTは正しい答えをしているのにその信念を貫けない」というテーマは興味深かったです。

ナゾロジー
ChatGPTは正しい答えをしているのにその信念を貫けない - ナゾロジー 近年のAI技術の発展には目覚ましいものがあります。 AIは既に、刑事司法制度における犯罪・リスク評価や、医療分野における分析・診断にも導入されているようです。 ただし...

ChatGPTは正しい答えをしているのにその信念を貫けない

 

加えて、以下の記事では、AIが得意なタスクと苦手なタスクが書かれており、参考になります。

 

以下、抜粋します。

AIが得意なタスク:新製品を会議で発表する際に必要な、ピッチから発売までのステップのリストを作成したり、マーケティングスローガンを考えたり、靴を開発するためのエンドツーエンドのプロセスを作ったり、プロジェクトから学んだ教訓を記述した2,500ワードの記事を書いたりといったアクションを行うように、 AIに指示する。

AIが苦手なタスク: 実験の参加者に、3つのブランドを持つ企業に勤めていると想像してもらったうえで、それぞれのブランドを改善するためにCEOが取りうる革新的な行動をAIに提案させる。

研究チームは、これらのタスクの違いに対して、「フロンティアの外側か内側か」 といった 表現をしています。 簡単に言えば、新しいことを考える作業が含まれるかどうかの違いってことでしょうね。

でもって、この研究では、参加者がフロンティアの外側にあるタスク、すなわち新しいことを考える必要があるタスクにAIを使った場合は、

  • 対照グループと比べて23ポイントの成績低下が見られた。
  • 成果のパフォーマンスも平均19ポイント低下した。

以上、ここまで。

経営企画や政策立案にAIを使うにはまだまだ不十分だということでしょう。

ではこの辺で。(4270文字) 

このブログは個人的見解が多いですが、本・記事・YouTube動画などを元にしつつ、僕の感性も加えて、なるべく役立つ・正しいと思われる記事を書いています。

あくまで読者がさらに深く考えるきっかけとなればいいなぁという思いですので、その辺は了解ください。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

大量の情報を咀嚼して、独自の視点からの考察・分析・エッセイ記事などを書いています。

質で勝負するブログのため、敢えて正体を明かしていません。

ブロガー歴10年以上。多数のブログ運営経験あり。

得意分野。経済、ビジネス、教育、心理学、執筆、アイデア発想など。

コメント

コメントする

CAPTCHA


目次