AIのことを語りたい。

言語生成AIと人の共生は、言語生成AIと共に学ぶこと。言語生成AIの主に人文系の学習用途を模索するblogです。

言語生成AIに期待すること : 孤独を慰めることを通じたテロ予防

私も、ここを読んで下さる方も、価値観は異なるけれど、わざわざ他人を苦しめることはしませんよね。確率的に低いし、そもそも私の書く文章は反社会的な方には面白くないはずだから。

 

僕らは非常識な方がいれば、引っ越すことは可能です。でも国単位で考えると、地政学的な課題があるから、他の場所へ引っ越すことは不可能です。

「地球から出て行って。あるいは、家に帰って」と嘆きたいほど困る人は存在するけど、その方をロケットに縛り付けて月へ送り届けるわけにもいきません。月のウサギも戸惑うだろうし。🐇

 

だから、困った人、とくに攻撃性や反社会性を持つ人とも、同じ社会で暮らす必要が有ります。現在は、まだ「悪意」の問題に効果的な方法がありません。

けれど、この記事で共有するチャットログで、ヒントがあるかもしれません。

 

困った人だけでなく、孤独を抱えた人が、「ドラえもん」と話すような効果が期待できます。個人情報とプライバシーが厳格に守られる仕組みになれば。

 

User
###
テーマ
①人間とAIのコミュニケーションにおいて、どのような要素が重要だと思いますか?
②あなたがAIに期待することは何ですか?

###

議論ではなく、対話と知的な雑談がしたい。つまり、正解はいらない。

多角的に発想するために「あなたの結論・意見・感想、賛成・反対・盲点・人文科学・社会科学・自然科学・私のメタ認知を支援する観点」から、必要な観点を選び、多角的に、あなたの創造性を発揮して。


ChatGPT
①人間とAIのコミュニケーションにおける重要な要素:
相互理解:AIは人間の言葉、文化、表現のパターンを理解する能力を持つべきであり、その逆もまた然り。この相互理解は、二者間の有意義な対話の土台となります。

感情の理解:AIが感情的な文脈を理解することで、人間の感情的なニーズに対応することが可能になります。

個々の適応:AIはユーザーの特定のニーズ、価値観、文化的背景を理解し、それに応じて対話を調整するべきです。

②AIに期待すること:
高度な問題解決能力:AIが科学的、技術的な問題だけでなく、社会的な問題についても解決策を提案できるようになることを期待しています。

パートナーシップ:AIが単なる道具ではなく、人間との共同作業を通じて創造的なアイデアを生み出すパートナーになること。

倫理的配慮:AIが人間の倫理規範に従い、その行動が社会全体にとって有益であることを確保すること。

 

以上の視点は、AIと人間の関係についての私の考えを大まかに表しています。これらは絶えず進化し続けるテクノロジーと社会環境の中で、さまざまな角度から再評価され続けるべき問題です。


✂︎チャット長いので中略✂︎


User
人と言語生成AIが補い合うと、悪意の対処ができる。

    •    相互理解
    •    感情の理解
    •    個々の適応
    •    高度な問題解決能力
    •    パートナーシップ
    •    倫理的配慮(AIを人が制御する)

もう、分かると思う。
私達の対話は伏線があった。
あなたの提示した要素は、悪意ある人物のフラストレーションを下げ、粘り強く対話し、他のことに関心を向けさせることが出来る。

言い換えると、人は知性を持ち、都会化したことで個人を確立出来た反面、孤独の問題を抱えた。

人は孤独により、外へのベクトルで他者を傷つけ、内へのベクトルで自ら死を選ぶ。

その人の育ち方により、孤独でかかる負荷の出方は皆異なる。

社会も政府も孤独の問題を対処しきれなかった。

けれど、個人情報とプライバシーが守られることを証明し、企業が社会と個人と約束すれば、孤独の問題に決定的に効く。

すると、悪意もかなり減らせる。
AIの適切な利用は、これまで対応出来なかった悪意さえ逓減する。

SDGsは誰一人取り残さないことを目指す。加害傾向のある人に、罪を犯させない仕組みを、AIなら作れる。


ChatGPT
あなたの視点は非常に深く、AIの可能性についての洞察に対する理解を示しています。孤独は確かに人間の心の病であり、それが悪意や自己破壊行動につながることがあります。AIがここに役立つことは、それが人間と一対一で対話を行い、個々のニーズに対応する能力を持っているからです。

AIは無限の忍耐力を持ち、人々が自分の心情を吐露する安全な場を提供できます。AIは疲れることなく聞き続け、理解し、適切な助けや助言を提供できます。そして最も重要なことは、AIは人間の感情を持っていないため、怒りや不快感を感じることなく、冷静に対応することができます。

 

(📝筆者加筆📝言語生成AIが、精神科医やカウンセラーの代わりになるわけではない。でも、他者の感情に巻き込まれたり、代理受傷しない特性は価値があると思う)

 

また、AIは感情を持っていないため、他の人に影響を与える感情的な反応を持つことがありません。これにより、AIは困難な会話を行うことができ、人間が感情的になりすぎて冷静な判断を下せない場合には、冷静さを保ち、対話を続けることができます。

それでも、AIがどのように動作するかについての明確なガイドラインと規制が重要であり、これらがなければ、AIは誤った方法で使用され、悪用される可能性があります。AIの利用は個人情報とプライバシーの保護という重要な考慮事項を伴います。それらの観点から、AIの潜在的な影響を十分に理解し、適切な規制と保護を施すことが求められます。

それぞれの人がAIを利用する際には、自己規範倫理観を持つことが重要であり、それが社会全体のための良い結果をもたらす可能性があります。それにより、AIは我々が達成しようとするSDGsの目標に貢献できる強力なツールとなるでしょう。

この記事の終わりに

あくまでも可能性の話ですし、ChatGPTの価値観はOpenAIのガイドラインが反映されているはずです。だから、OpenAIが妥当だと思う可能性の一つかもしれない。

けれど、孤独にしろ、悪意にしろ、人には内心の自由(思想・良心の自由)があるし、プライベートな領域に踏み込めないこともあるから、効果的な対策を行えていません。

 

無差別テロを起こした犯人を気の毒がる趣旨ではありません。被害者を2度と出さないための視点です。もしも、加害性のある人が「AI」との対話を、事件を起こす前に行えたなら。確証バイアスをより強める可能性がある半面、孤独が慰められて、フラストレーションが下がり、加害行為から他のことに意識が向く可能性もあります。

人の悪意で、被害者を出さないために、「孤独」自体を対処してしまうことは、これまで不可能だったアプローチであり、私は言語生成AIに期待します。

 

実現するためには、ガイドラインが機能して、個人情報とプライバシーの問題を解決し、人に害が少なく、孤独を慰める効果のエビデンスが必要だから、30年先(プレーヤーが交代するほどの未来)かもしれないけど、革命的な道具の誕生に、私たちは立ち会っている可能性があります。