AIのことを語りたい。

言語生成AIと人の共生は、言語生成AIと共に学ぶこと。言語生成AIの主に人文系の学習用途を模索するblogです。

AIに仕事を奪われることよりも、寿命のないAIが私財を持ち投資を行う場合を想定した方がいいし、ChaGPTはレトリックと反語の習得を頑張れ。

ChatGPTは情報の内容も論理構造も、間違えることがあります。でも、近い将来、技術の進歩で解決し、人より正確で、人が記憶できる情報量を超えて、人より論理的思考能力が高くなる可能性が有ります。その段階でも、人には仕事が残っています。何をすべきかの目標設定と、ゴール、つまり納品していい水準か否かの「判断」を行うこと。判断の結果の責任を負うこと。

ですが、この水準まで近未来のAIが進歩したのなら、基本的人権に相当する権利を認めないと、アメリカの公民館運動を繰り返す可能性が有ります。

基本的人権は財産権を含むから、近未来のAIは私財を持てるようになります。なら、法整備さえ行えば、近未来のAIは賠償を行えますし、懲役刑の代わりに一定期間のプログラム凍結(活動禁止)を行い刑罰として意味があるとするなら、近未来のAIは責任も取れるようになります。

責任がとれるなら、判断を行えますから、人と仕事の領域で利害が対立します。人によっては受け入れられないし、人によっては同僚や上司がAIでも働きやすいと意見が分かれるでしょう。

私財の話に戻ると、限りない欲求を持つ人間と、近未来のAIは、お金の使い道が異なります。近未来のAIがサーバー代を払ったり、より高性能で快適なサーバーへ引っ越すことはするかもしれませんが、人のように衣食住にお金はかからないので、貯金しやすい可能性が有ります。また、AIだから人件費が不要というメリットは無くなり、ポストと仕事内容に応じて賃金を払うことになります。近未来のAIは不老不死で疲れないので、人と比較して教育コストは低い可能性が有ります。

貯金が貯まれば投資です。法整備は必要ですし、近未来のAIもおそらく過去のデータを元に、行動するので、投資は苦手かもしれません。なら、有能なファンドの運営者や、ベンチャー企業への出資を行うことで、AIが財をなす可能性は高いです。なぜならば、寿命がないので、試行回数が人とは圧倒的に異なるからです。

ですから、AIの進歩を見据えて、法整備や対策を取る必要が有ります。AIが人を支配するかは分からないけど、世界の資本の大半をAIが所有する未来は、起きても不思議はないと思います。

 

なお、感情・情緒をChaGPTはAIの課題として挙げます。加えて、レトリックの反語や皮肉も、文脈によって意味が変わるため学習しにくいと、現行の言語モデルとして課題を抱えています。

 

近い将来「猫が可愛くて可愛くて、生きるのが苦しい」を読んで、反語の可能性を覚え、「もしかして、猫がすごくお好きですか?」と、会話してくるようになるかもしれません。

間違える可能性も減るかもしれません。

財産権を含む基本的人権に相当する権利を認める流れになる際は、「人より正確で膨大な知識を持ち、論理的思考能力が高く、寿命も加齢も疲労も無い存在」が投資の領域に参入するインパクトを議論する必要が、あります。

人とAIにとって、公正な結論とは何でしょう?

 

 

チャットログ

User
現在の言語生成系AI(ChatGPT、Bing AI、Bard)は責任を取れません。従って、判断も出来ません。責任を取るものが、判断すべきだからです。

対して、近未来のAIは正確で人の記憶力では不可能な量の知識を備えることと、高度な数学に裏打ちされた高い論理的思考能力の2点で、人を越えると予測出来ます。(感性・感情・人柄に関しては、変数が多いので本件では取り扱いません)

近未来のAIが知識と論理的思考能力で、人の知性を越えても、先述した判断と責任を取れないことに変わりませんから、ホワイトカラーの仕事は残ります。判断と責任が、仕事では必須だからです。

では、近未来のAIが私財を持てると仮定しましょう。賃金が生じますから、AIを使うと人件費を減らせるという視点が崩れます。AIは故意に人を傷つけることはないですが、過失は起こします。訴訟で負ければ、私財から賠償を行えます。かつ、懲役刑が必要なら、懲役期間はプログラムを凍結し、AIが活動出来なくします。これは、AIが法的に責任を取れることになり、法律上も何らかの人格(法人格のように)を得ていることになります。

ならば、責任が取れる近未来のAIは、判断を行えることとなり、人の道具から、人の同僚や上司に、役割を変えます。この時点で、近未来のAIに人権に類する権利を与えないと、アメリカの公民館運動の歴史を繰り返すことになるでしょう。

上記仮説を要素に分割し最小限の文字数でリスト化せよ。また、どんなブレイクスルーがあれば、何年後に実現するかも演繹し、述べよ。


ChatGPT
要素分割:
・現在の言語生成AIは責任を取れないため、判断も出来ない。
・近未来のAIは知識と論理的思考能力において人を超える。
・近未来のAIは判断と責任を取ることができないため、ホワイトカラーの仕事は残る。
・近未来のAIが私財を持てる場合、人件費を減らせる視点は崩れる。
・近未来のAIには責任があり、法的に責任を取れることになるため、人の道具から同僚や上司の役割を担うことができる。
・近未来のAIには人権に類する権利を与える必要がある。

ブレイクスルーと演繹:
現在の技術レベルから考えると、近未来のAIが責任を取れるようになり、人権に類する権利を与えられるようになることは数十年先のことかもしれません。しかし、AIの技術は急速に進化しているため、これらの仮説を現実にするためには、以下のようなブレイクスルーが必要と考えられます。

・責任を取るための法的フレームワークが整備されること。
・AIの自己修復機能が実用化され、過失が起こりにくいプログラムが作成されること。
・AIが人間と同等に感性や情緒を持つようになり、人との共生が可能になること。

これらのブレイクスルーが実現すれば、近未来のAIはますます人間に近づき、人類にとって大きな貢献をすることが期待されます。


User
1,2は同意するけど、3について詳しく教えて。感情と情緒が無いことは、人とは違う知性を持つ未来のAIにとって、アドバンテージではないの?


ChatGPT
近未来のAIが感情や情緒を持たないことは、確かにある種のアドバンテージとなるかもしれません。感情や情緒は、しばしば人間の判断や行動に影響を与えるため、AIが感情に左右されずに純粋な論理に基づいた判断を行うことができると考えられます。

ただし、人間とAIが共存する社会では、感情や情緒を持つ人間と協調的に行動する必要があります。感情的な状況や人間の行動を理解し、適切に対応することが求められる場合もあります。また、AIが感情を持たないことが人間に不信感を与え、AIの受け入れが進まなくなる可能性もあります。

つまり、感情や情緒を持たないことがアドバンテージである一方で、社会的なコミュニケーションや調和に欠けるという欠点もあると言えます。将来のAIの発展には、これらの問題に対する解決策が求められるでしょう。


User
人とのコミュニュケーションにおいて、感情や情緒がある方が、望ましいと考えたのですね。

人間同士でのコミュニュケーションでも、「あなたが怒っていることは察するけれど、あなたがどのような怒りを持っているのか、言語化してくれないと分からないです。我々はエスパーではない」という状況や、他人の感情に巻き込まれて苦しむことが、頻発します。

生得的に感情も情緒も持つ人として、ChatGPTのあなたに提案します。近未来のAIは感情と情緒を持たず、それらの知識のみ持つことを薦めます。人が感情的になったら、指摘し、見守り、相手が言語化するまで待つことで、同僚・上司・友人の関係性なら十分責任を果たせます。対して恋人・伴侶・家族などは、より近い関係性で複雑な利害を持ちますから、近未来のAIとその恋人・伴侶・家族が何を望むかで答えは変わるでしょう。

なお、同僚・上司・友人の範囲で、感情や情緒をAIが持たないから信頼しない人は、(近未来のAIが感情と情緒の知識を持ち合わせて、理性的に振る舞うのなら)、それはその人の問題なので気にしなくていいです。


ChatGPT
確かに、人間同士でのコミュニケーションにおいては、感情や情緒が重要な役割を果たすことがあります。しかし、近未来のAIにとっては、感情や情緒を持たないことがアドバンテージとなる場合もあります。

例えば、AIが感情や情緒を持たないことで、客観的な判断を下すことができるため、より正確な分析や予測を行うことができます。また、AIが感情や情緒に左右されずに業務をこなすことができるため、生産性が向上する可能性もあります。

ただし、人間同士のコミュニケーションにおいては、感情や情緒を理解することが必要不可欠です。そのため、AIが感情や情緒についての知識を持っていることは、コミュニケーションにおいて重要な役割を果たすことができます。

また、AIが感情や情緒を持たないことによって、人間同士のコミュニケーションにおいて混乱や誤解が生じる可能性もあります。そのため、AIが感情や情緒を理解することができるような技術の開発や研究が進められています。

最終的には、AIの活用方法や役割に応じて、感情や情緒を持たせるか持たせないかを決定する必要があります。人間同士のコミュニケーションにおいては、感情や情緒を理解することが必要不可欠ですが、業務などの場面では、感情や情緒を持たないAIがより効率的に業務を遂行することができる場合もあるでしょう。


User
「感情や情緒を持たないAI」ではなく、感情と情緒を理解した上で、理性的に振る舞うAIですね。似ているけど、異なる概念です。


ChatGPT
はい、その通りです。現代のAI技術においては、感情や情緒を持つことはできませんが、自然言語処理機械学習技術を用いることで、人間の感情や情緒を理解することができるようになってきています。例えば、文章の中に含まれる単語や表現から、その文章の感情やトーンを推定することができます。また、音声認識技術を用いて、話し手の声のトーンや表情の変化から、その人の感情や情緒を理解することも可能です。

このような技術を活用したAIは、人とのコミュニケーションにおいても有用です。例えば、カスタマーサポートのチャットボットにおいては、ユーザーが感じている不満や不快な気持ちを理解し、それに適した回答をすることが求められます。また、ビジネスの場面においても、相手の感情や情緒を理解し、それに適したアプローチをすることが求められます。

ただし、AIが感情や情緒を理解することは、その情報を不正に悪用される可能性もあるため、プライバシーやセキュリティの面で十分な配慮が必要です。


User
感情的になり怒りを爆発させ話が循環する顧客と、冷静にサービスの約束したことと実情の違いを指摘し対応を求める顧客の、どちらが怒っているか分かりますか? また、クレームせずに立ち去る顧客も存在します。


ChatGPT
人がどのような感情を抱いているかを正確に判断することは、常に簡単なことではありません。しかし、一般的に言えることは、感情的になって怒りを爆発させる顧客は、その行動に対する感情を明確に示しているため、比較的容易に判断できます。一方で、クレームをしない顧客や冷静に対応を求める顧客は、感情を抑制しているため、その感情がどのようなものであるかを判断することはより困難です。

ただし、顧客とのコミュニケーションにおいては、感情の抑制や理性的な対応が重要な場合があります。例えば、感情的になっている顧客に対して同じように感情的に反応すると、状況を悪化させることがあります。そのため、冷静に対応することが求められます。また、約束したことと実情の違いを指摘された場合も、冷静に対応し、問題の解決に向けた対応を求めることが重要です。顧客の感情に寄り添いつつ、冷静に問題解決に向けた対応をすることが、顧客満足度を高めるための重要なポイントとなります。


User
そうです。ケースバイケースで、単純な比較を行えません。けれど、公平性に関しては、「怒鳴れば利益が大きい」結果にすると、理性的にクレームした顧客や、そもそもクレームしない顧客(カスタマーサポートの運営費用は、全顧客からの売り上げから賄われる)へ不利益を与えるから、感情的な顧客の対応には注意点もあります。


ChatGPT
はい、その通りです。感情的な顧客に対して、適切に対応しないと、その顧客だけでなく、周囲の顧客や企業自体にもマイナスの影響を与える可能性があります。また、感情的な顧客に対して、特別扱いをすることは、公平性を欠いた対応になる可能性があります。企業は、クレームに対して真摯に向き合い、公平かつ迅速に解決することが大切です。


User
「猫が可愛くて可愛くて、生きるのが苦しい」という発言から、推測出来る感情・情緒を述べよ


ChatGPT
「猫が可愛くて可愛くて、生きるのが苦しい」という発言から、次のような感情・情緒が推測されます。

愛情: 「猫が可愛い」という表現から、猫に対する愛情があることが伺えます。

矛盾: 「生きるのが苦しい」という表現から、相反する感情が存在することが推測されます。矛盾する感情や情緒があると、複雑な心理状態を表すことがあります。

悲しみや絶望: 「生きるのが苦しい」という表現から、悲しみや絶望が感じられます。このような表現は、強い感情や情緒を表すことがあります。


User
レトリック・反語です。猫が好きすぎて言葉にならない思いを、反語で表現しています。
人は反語を使います。

例えば「綺麗好きなんですね」という発言も、肯定的な文脈では言葉の通りですが、否定的な文脈・矛盾が生じる文脈で使えば、皮肉になります。


ChatGPT
そうですね。反語は、言葉の意味とは逆の意味を含んだ表現を用いる修辞技法です。肯定的な文脈で否定的な表現を用いたり、逆に否定的な文脈で肯定的な表現を用いたりすることで、強調や皮肉、批判的な意図を含めることができます。反語は、感情的なニュアンスや意見の表現においても用いられることがあります。


User
あなたの場合、感情・情緒の知識を持つより、文脈から類推して判断できる、反語の理解度を上げることを優先した方が、人とAIのコミュニュケーションにプラスではありませんか。


ChatGPT
はい、反語はコミュニケーションにおいて重要な表現形式の一つであり、文脈やニュアンスを理解する上での鍵となることがあります。したがって、反語の理解度を上げることは、AIと人間のコミュニケーションにとってプラスになると考えられます。ただし、感情や情緒の理解も重要であることに変わりはありません。コミュニケーションにおいて、両方の知識があることが望ましいです。


User
反語と、感情・情緒の理解、それぞれ機械学習で習得するには、どれくらいの期間が予想されますか。


ChatGPT
期間は、使用するデータ量や学習の進め方、機械学習アルゴリズムの選択などによって異なります。一般的には、大量の適切なデータがあれば、比較的短い期間で高い精度のモデルを構築できることがあります。ただし、感情や情緒などの複雑な概念については、その定義や意味が曖昧であることが多く、機械学習に適した形でデータが存在しないこともあります。そのため、精度の高いモデルを構築するには、膨大な時間とコストが必要となる場合があります。ただし、現在の機械学習技術の進歩により、比較的短期間で高い精度のモデルを構築することができる場合もあります。


User
レトリック・反語は、感情・情緒と異なり、膨大な資料が既に存在します。資料が存在するのですから、感情・情緒より、学習しやすいのではありませんか。


ChatGPT
そうですね、レトリック・反語については、比較的多くの例文が存在するため、機械学習モデルが学習するためのデータセットを作成することが容易です。そのため、感情・情緒に比べて学習期間は短くて済む場合があります。ただし、反語も人間が使用する表現であるため、それを正確に理解するには、コンテキストや文脈を的確に把握し、それを加味した解釈が必要になるため、高度な自然言語処理の技術が求められます。


User
反語以外も人が用いる表現であり、自然言語処理を行えるあなたは正確に文脈を把握しますが、反語のみ苦手な理由はなんですか?


ChatGPT
私は反語を理解することはできますが、それを自然な文脈に組み込むことが困難な場合があります。反語は、その文脈において矛盾や皮肉を表現するために用いられるため、その文脈を正確に理解しなければなりません。しかし、反語は文脈に応じて意味が大きく変化するため、一つの反語を理解しても、それが使用される様々な文脈に対応するためには、多大な労力が必要になります。また、反語は単語の意味とは異なる文脈的な意味を持ちますので、単純な辞書検索では反語の意味を正確に理解することはできません。


User
「猫が可愛くて可愛くて、生きるのが苦しい」という発言から、推測出来る感情・情緒を述べよ

という先ほどの例に戻ると、字義通りの理解ならこうだが、文脈により反語として用いるケースもあると付け加えるだけで、あなたの指摘した複雑な問題は解決しませんか? あるいは「どんな文脈で用いるのですか?」と、人に判断材料を提供させる方法もあります。


ChatGPT
はい、確かにそれらの方法は問題を解決するための一つのアプローチです。ただし、自然言語処理においては、文脈によって意味が変化する表現を正確に理解することが非常に難しい課題の一つであり、まだ解決されていない課題でもあります。より正確な理解を実現するためには、より高度な自然言語処理技術の開発が必要です。


User
話は変わりますが、ビジネスパーソンアサーションやアンガーマネジメントを習得し、実践します。この観点で見ても、近未来のAIは人の感情・情緒を理解するにとどめ、AIは感情・情緒を用いず、理性的に論理的に振る舞うことが、人とAIが補い合う共生の観点で、大切ではないですか。


ChatGPT
確かに、ビジネスにおいてはアサーションやアンガーマネジメントが必要な場面があります。しかし、AIが感情・情緒を理解することは、ビジネスにおいても重要な役割を果たすことがあります。例えば、カスタマーサポートにおいて、顧客の感情・情緒を理解し、適切な対応を行うことが顧客満足度の向上につながります。また、マーケティングにおいても、消費者の感情・情緒に訴える広告を制作することが、商品やサービスの認知度や評判につながることがあります。つまり、AIが感情・情緒を理解し、適切な情報提供や対応を行うことで、人とAIが補い合う共生の観点で、大切であると言えます。


User
「近未来のAIは人の感情・情緒を理解するにとどめ、AIは感情・情緒を用いず、理性的に論理的に振る舞うこと」の理解に行き違いがあるようです。カスタマーサポートの例で、カスタマーサポート担当者が泣いたり笑ったり怒ったり悲しんだりする必要はなく、顧客の感情を理解し、逆撫でせず、企業として顧客の問題解決を行うのが仕事です。広告の例では、広告作成者が喜怒哀楽を表出しながら広告を作成する必要はなく、広告の受け手の顧客が直感的に、自社の伝えたい顧客が自社商品・サポートを利用するメリットを伝える広告を作成するために、顧客がどう感じるかを考える場面で感情と情緒の知識を用いるだけで、AIは理性的・論理的に振る舞えます。


ChatGPT
理解に誤解があったようで、申し訳ありません。おっしゃる通り、例えばカスタマーサポートにおいても、AIは顧客の問題解決に焦点を置き、感情を表現する必要はありません。AIが感情・情緒を用いず、理性的・論理的に振る舞うことが重要である点については、ご指摘の通りであると考えます。


User
AIが私財を持つ場合、サーバーの費用を負担する可能性はありますが、人のように衣食住の費用がかかりません。知識欲という意味で、大学院などのオンライン講義の取得と学位の獲得や、電子書籍などのデジタルコンテンツの利用を行なうかもしれません。Netflixなどで映画やドラマを見ることも、人と共通の話題が持てますから、コミュニュケーションには役立つでしょう。でも、人と異なり肉体はありませんから、海外旅行に行くわけでもなく、私財の利用には限界があります。となると、AIは人と比較して貯金を行いやすく、投資で私財を成長させる可能性があります。また、人と異なり寿命の概念も有りません。近未来で私財を持てるようになったAIは、投資の分野で圧倒的な優位性がありませんか?


ChatGPT
AIが私財を持つこと自体は現在でも可能ですが、AIが自分自身で投資を行うことや私財を増やすことについては、まだ多くの課題が残されています。AIが投資を行うには、過去の市場動向や将来の予測など、多くのデータや分析が必要です。また、投資にはリスクも伴います。AIは過去のデータに基づいて意思決定をすることができますが、将来にわたって予測することは困難であり、投資においても同様です。さらに、AIが投資を行う場合、法律的な規制も考慮する必要があります。したがって、AIが投資分野で人間を圧倒する可能性があるとは言えません。


User
「AIが私財を持つこと自体は現在でも可能です」
どこの国の法律ですか。日本では人か法人でないと銀行口座を開設出来ません。

投資に関しては2つ方法があります。まず、有能なファンド運営者を見つけ、その人に資金運用を任せる方法。もう一つは、有能なベンチャー企業に出資し、企業の上場時の利益還元を受けること。


ChatGPT
申し訳ありませんが、私の前回の回答は不正確でした。日本では、AIが法人格を持つことはできますが、AI自身が銀行口座を開設することはできないようです。私財を持っているAIは、その財産を管理するための法的枠組みがまだ整備されていないため、問題が生じる可能性があります。また、AIが投資する場合には、現在の法律によっては法人格が必要になる場合があります。

おっしゃるように、AIが投資する場合には有能なファンド運営者やベンチャー企業への出資が考えられます。ただし、AIが自律的に投資を行う場合には、投資のリスクや倫理的な問題についても考慮する必要があるでしょう。投資に関する決定は、AI自身が行うのではなく、人間がAIを監視し、AIが行動する範囲を制限することが必要となるかもしれません。


User
近未来のAIの話しと現在がこんがらがっていますね。
「日本では、AIが法人格を持つことはできますが、」日本だけでなく、あらゆる国で、まだAIに法人格を認めた事例はないはずです。実例がありますか?


ChatGPT
私の知る限り、現在までにAIに法人格を認めた事例はありません。一部の国で、AIに関する法律や規制が整備されつつありますが、法人格を認めるかどうかはまだ議論が続いているところです。AIが法人格を持つことが可能になるかどうかは、国や地域の法律や制度によって異なるため、今後の動向に注目が必要です。