AIのことを語りたい。

言語生成AIと人の共生は、言語生成AIと共に学ぶこと。言語生成AIの主に人文系の学習用途を模索するblogです。

適切に恐れること : "AI Risk | CAIS" を読み、理解して言語生成AIの経験値を上げよう

①メタ的な使い方ができる、言語生成AI


 

  1. Googleは、インターネットの「興味関心で繋がる」ことを便利にしました
  2. iPhoneスマホ)は、インターネットもGoogleも、いつでもどこでもアクセスしやすくしました

パラダイムシフトを起こしたイノベーションは、それまでの道具に価値を加える面があり、メタ的傾向があります。

言語生成AI(NLP AI)は、インターネット・Google検索エンジン)・スマホを底上げします。とても便利になります。メリットとデメリットはセットです。だから、リスクを議論することは合理的です。

 

②極論すれば、核兵器関連が怖い

兵器にAIを搭載したり、防衛システムにAIを関与させたとします。一定の確率で誤作動するとしたら危ないですよね。

上記を読みました。記事の中で、丁寧にリンクされていた


上記を読んできました。

英語です。大丈夫、機械翻訳もある。

ご存知かと思います。参考までに。GoogleはURLを上記のように渡すと、ページごと訳せます。(URLをクリックするだけ)

 

2022年の8月のデータで申し訳ない。fgoは、

リリースから2022年8月までの収益が63億ドル(880,210,800,000円/5月31日 5:06 UTC )で、累計1,800万以上ダウンロードの人気作品です。奈須きのこは登場人物U-オルガマリーの口を借りて「人の技術開発は順番が逆だ。核廃棄物の処理技術を開発することが、核開発より先だ」という趣旨の発言をしています。核開発を行う際に、様々な判断があり、現状があります。

言語生成AIの起こすトラブルに備えてから、言語生成AIを導入するのは逆説があります。実証実験を行っておりエビデンスに基づくガイドラインを作るために、初めて実証実験を行う時は、実証実験で得られたエビデンスを反映したガイドラインは存在しないからです。(最初は専門家が考え抜いたガイドラインを使うしか無いからです)

 

③専門家が論点を整理してくれている

CAISのAI Riskは、悲観的なSFマニアみたいなことが書いてあります。セキュリティの観点で、最悪を想定するのは意味があります。次に、言語生成AIは社会へ受け入れられ、統合されるプロセスを始めています。iPhoneGoogleインターネットの登場を振り返ると、言語生成AIの可能性の高さ・人の創造性を底上げする力から、これまで以上の影響が予想されます。つまり、パラダイムシフトが始まっているはずです。

パラダイムシフトは前提を劇的に変えます。だから、パラダイムシフトの行われている間は、全体像が分かりません。前提が変化しているのですから。

そんな時に、CAISのAI Riskの最悪の想定は意味があります。検討する範囲を限定して、科学的に推論出来るからです。

Google翻訳で10分かからず読めます。目を通されることを勧めます。

 

④本質は何だろう?

言語生成AIは人の創造性や意思や欲望を底上げする性質があります。インターネットもGoogleスマホも、人の創造性・意思・欲望を反映出来る道具だから、言語生成AIは底上げしてしまう。つまりメタ的で、現在起こるほぼ全ての問題に、レイヤーが一枚加わる形になります。

ここは、はてなブログだから、SBMはてなブックマークで説明します。ブックマークしたユーザーのコメントがついてるページは、ブックマーク先に対してメタであり、レイヤーが増えています。このページを、はてなブックマークでブックマークすればメタ構造はさらに複雑になります。

言語生成AIが便利なのはもちろんですが、メタ的な使い方が出来るので、影響を与える範囲は広く複雑になると予想できます。

 

そもそも、自然言語処理が出来るということは、言葉が関係すること全てへ影響が予想されます。言葉は情報以外に様々なことを伝えますよね。かつ、人が考える根幹です。

 


⑤一般のユーザーは何が出来るだろう?

1つ目。言語生成AIを触って楽しもう

伝聞だとよく分かりません。また、創造性を底上げする道具だから、万能感と似た高揚感を経験すると思います。プログラマーがいらなくなると海外の専門家が発言しました。

言語生成AIはサーバーで運用されてます。開発・メンテナンスだけでも、プログラミングスキルのある方がいないと成立しません。また、銀行などのインフラを、仮にAIに技術的に任せられるとして、倫理的な問題どうしましょう。人と異なり、言語生成AIは責任取れません。

(言語生成AIが人に作られ保守されていることは、人と言語生成AIの大きな違いです。人は仕事でガイドラインが変わっても理解出来ます。言語生成AIは自身の仕様変更などを自覚する力はありません。過去の記憶もありません。一貫性を保ちにくいです)

ですから、先の専門家は「自然言語処理が出来るって、何て素晴らしいんだ!」と、言いたかったのだと思います。そして、言語生成AIの底上げで「酔って」、その方が見たい未来を見たのでしょう。このように、専門家でも、高揚する可能性があることは、言語生成AIを触れば理解出来ます。

 

簡単な話です。2007年 6月29日の初代iPhone発表前のご自身に、スマホInstagramを説明出来ますか? 伝わりにくいですよね。

専門家の話を理解するには、前提が必要です。言語生成AIを触った体験は、前提になります。

 

2点目。悪意の対処の難しさを知ろう

二〇一六年七月二六日、神奈川県相模原市の障害者施設「津久井やまゆり園」を二六歳の植松聖被告がたった一人で襲い、一九人を殺害し、二七人に重軽傷を負わせた事件は衝撃的だった。  この事件は典型的な無差別大量殺人であり、アメリカの犯罪学者、J・レヴィンとJ・A・フォックスが「大量殺人の心理・社会的分析」で挙げている大量殺人を引き起こす六つの要因が、すべて認められる。

片田珠美著『拡大自殺 大量殺人・自爆テロ・無理心中 (角川選書)』

上記書籍によると、植松死刑囚は2016年2月に措置入院しています。同書から引用します。『「医者をだました。『考えを改めます』と言ったら退院できた」』とのことです。事実なのか、植松死刑囚が主張しているだけなのか分からないけれど、専門性のある精神科医である著者が慎重に言及したことを、私は意識しました。

精神科医にも限界はある。こうした犯罪者はこれからも現れるでしょう。つまり、人の悪意自体が、予防することが難しい面があります。

 

植松死刑囚は極端な思想の持ち主です。仮に、言語生成AIで彼にとっての「真実」を、言語生成AIが対応出来る言語の数だけ訳してネットに公開したら、影響を受ける人達が集まり、エコーチェンバーに繋がりませんか。言語生成AIの対策をかいくぐり、もっと大規模なテロ行為を起こす方法を学ぶかもしれません。

精神科医でも見抜けない悪意・害意を、言語生成AIに見抜けと言うのは無理です。

 

究極的には、ガイドラインに加えて、「自分との約束(自己規範)」を持つ形になると思います。車を運転する時、法律があります。でも、わざわざ生き物を苦しめようと、意図的に轢く人はいませんよね。可能でも、望まないからしない。言語生成AIも道具だから、同じ。

 

3点目。言語生成AIはスマホを強化すると気付こう

PCだけどAI使わない方と、スマホだけどChatGPT・BingAI・Bardを使える状態なら、後者の生産性が高い可能性が有ります。スマホは携帯するから、電池など制約があります。言語生成AIは、クラウドサービスで処理を引き受けてくれるから、外部のリソースが使えるので、スマホが便利になります。

ただし、誰でも恩恵を受けます。例えば、駅に盗撮するなと警告のポスターが貼ってあるのはなぜか、思い出して下さい。そのような方も、言語生成AIを使います。

言い換えます。スマホで写真を撮り、ネットにアップ出来ることを知らなければ、自らの肖像権を守れません。自分も他人もスマホが強化されていると見なすことを、勧めます。

 

4点目。情報リテラシーをアップデートしよう


情報モラルやICTリテラシーを身につける | 消費者庁

☝️

参考までリンク置いておきます。必要な方に教えて差し上げて下さい。

悲観的なことを言います。

言語生成AIが無い状態は、言語生成AIが有る状態ほどは、複雑では無いですよね。

だけど、エコーチェンバーもフィルターバブルも理屈は分かっているのに対処出来ていません。言語生成AIの登場により、さらに複雑になるのに、対処出来るとは考えにくいです。

 

逆の視点です。フェイクニュースフィッシング詐欺が巧妙になり、社会が混乱するとします。ファクトチェックも、言語生成AIにやらせれば、人の負担が減ります。

現在は開発中なので、昨日と同じプロンプトなのにBingAIの挙動が変わるとか、Bardが「道元は日本に帰化しました」と言い張るとか、ChatGPTがしれっと存在しないURLを生成してきたりします。

言語生成AIの回答は情報が多過ぎます。Googleや図書館で裏をとるのでは、言語生成AIを使う意味が分かりません。そこで、他の言語生成AIにAIの回答を分析させています。

興味深いことに、他の言語生成AIは「一般的に正しい」などと限定的な回答なのに、回答した言語生成AIに読み込ませると「正確だ」と断言します。回答した言語生成AIの価値基準と一致するからでしょう。この方向で研究すれば・どの言語生成AIの回答パターンかを解析出来るかもしれません。

このように、複数の言語生成AIを使って、情報を確認させる方法は、フェイクニュース対策に使えると思います。

 

まとめると、言語生成AIによる混乱に対処するには、言語生成AIを複数並行して使うことが望ましい。(開発企業ごとに方針が異なる)

言語生成AIを用いるスキルも、情報リテラシーの一部に組み込んで、アップデートしましょう。


5つ目。フェアユースとは何かを選ぼう

私達は価値観も目的も異なります。言語生成AIが登場し、社会が変化しても、自分は自分、他人は他人です。ガイドラインの「守り方」は、個人の裁量です。

刃物は、ご家庭でお料理をするかもしれない、鉛筆を削るかもしれない、探検家がサバイバルナイフを携帯してるかもしれない。様々な刃物の用途があるけれど、その人の目的のために適切に使う、コントロールする点は同じです。

フェアユースとは何か、専門家の議論を踏まえて、ご自身のライフスタイルに合わせれば、それがその方の正解ですよね。

 

⑤まとめ

言語生成AIはクラウドサービスでもあり、メタ的な使い方が出来るから、スマホが再発明されるような状態になります。

なぜ、専門家が最悪を想定するのか、立ち止まって考えることを勧めます。

言語生成AIが無くても、他者の悪意から身を守ることの難しさを学ぼう。巨大企業のGoogleFacebookですら、フェイクニュースの問題を防ぎきれなかったから、AI開発会社にも限界があると予想して、自衛をしよう。

ナイフから身を守るには、ナイフの知識があった方が望ましい。言語生成AIを触れば、便利だけど悪用したら問題だと気づく機会があるから、その経験で言語生成AIを悪用する人から身を守ろう。

 

一言にまとめると、「適切に怖がること」が必要です。

 

車のハンドルを握る時に、責任や事故を起こした場合のリスクを、適切に「怖く」感じられるドライバーは、おそらく車でやりたいことが出来て、事故なども少ないでしょう。怖がり過ぎても、恐れ知らずでも、よくない。

その、バランスを見つけるために、スマホに言語生成AIを迎えることを、勧めます。