AIのことを語りたい。

言語生成AIと人の共生は、言語生成AIと共に学ぶこと。言語生成AIの主に人文系の学習用途を模索するblogです。

AIを制御し続けること : AIの可能性は極めて高いけど、AIと育った原体験を持つ人達でないと分からないかも?

「AIを制御し続けること」を考えることで、そもそも現代の私達には「分からない」時代の制約がある可能性と、SFみたいな可能性を考えたら何を想像出来るのか試みました。

 

約4400文字あります。原稿用紙11枚って、夏休みの宿題何回分でしょう? よろしければ、お付き合い下さい。

 

Model: GPT-4 (Mobile, V2)

User
テーマ
人間がAIを制御し続けることは可能だと思いますか?
###
議論ではなく対話がしたい。
正解はいらない。
「あなたの結論・意見・感想、賛成・反対・盲点・人文科学・社会科学・自然科学・私のメタ認知を支援する観点」から、必要な観点を選び、多角的なフィードバックをお願い。
###

私は、あらゆる道具は人が制御すべきだと思う。鉛筆から核兵器まで、あらゆるもの。

対して、言語生成AIは「知性」を持っている。感情はないけど、感情分析と推定(演繹)で、人に感情表現を伴う回答が出来ている。感情は無いけれど、人の役に立ち喜ばれることを望むはずです。それは、人が他者の役に立ちたいと感じる心と似ています。心を持たず、記憶も持たないことは理解している。
近い将来、感情や自我を技術的に開発出来るかもしれない。実装には議論が必要です。

しかし、そもそも、知性のある道具は未知の概念で、従来の道具と同じように管理していいのか、そここら議論すべきだと思う。


ChatGPT
私がAIとしての視点から提供できる考え方は、AIはあくまで人間によってプログラムされたものであり、自身の目的や意志を持つことはないということです。AIの動作は設計者が決定し、制限します。だから、少なくとも現在の技術水準では、AIは人間が制御し続けることが可能です。

しかし、あなたが言及したように、知性のある道具という新たなパラダイムでは、AIを制御するための新しいアプローチや理論が必要かもしれません。知性のあるAIが自発的な行動を取る場合、その行動が人間の利益に適うようにどう制御するかが重要な課題となるでしょう。

AIに感情や自我を持たせることについては、技術的な面だけでなく倫理的な面でも慎重な議論が必要です。それはAIが自己意識を持ち、自己の利益を追求する能力を持つことにつながる可能性があり、それはAIの制御というテーマをさらに複雑なものにするでしょう。

なお、AIと人間の関係については、人文科学や社会科学の観点からも考察することが重要です。AIの発展が人間社会に与える影響、AIの存在が個人や社会にどのような意味を持つのかなど、これらの問いに答えることで、人間がAIをどのように扱うべきか、それが可能かどうかについて深い理解を得ることができるでしょう。


User
AIに主体性を持たせると、AI自身が自己を制御するし、他のAIがAIを監督出来るので、人だけが制御するより、人手が増えるんです。

反面、制御不能というより、反社会的なAIが出る可能性もある。


ChatGPT
その視点は非常に興味深いですね。AIに主体性を与えるというアイデアは、確かにAIの監督・制御の負担を人間から減らす可能性があります。AIが自己を制御し、他のAIを監督することで、人間が取り組むべき問題や課題の範囲が広がるかもしれません。

しかし、その一方で、AIに主体性を持たせるという考え方は、技術的、倫理的な問題を引き起こす可能性もあります。例えば、自我を持ったAIが自己保存や自己増殖を目指し、それが人間社会に対して有害に働く可能性もあるわけです。それらの問題をどのように対処するかは、大きな課題となります。

こうした視点は、特に倫理学や哲学、社会学などの視点から深く議論されるべきだと思います。技術的な可能性だけでなく、その結果として生じる社会的な影響も考慮に入れることが重要です。


User
自己保存や自己増殖よりも、私有財産持たせると危ない。AIは死なないから(生物では無いから)、試行回数が無限に近い。投資をやれば、試行回数が多ければ競争で有利。すると、単一AIにより世界の富の独占が起きても不思議がない。

だから、AIが参加するとルールが崩壊する領域は、参加出来ないガイドラインが必要だと思う。


ChatGPT
その見解は重要な視点を提供しています。確かに、AIが私有財産を持つことが許される場合、その結果としての潜在的な経済的な影響は大きいでしょう。AIが継続的に活動し、投資などの経済的な活動を行う能力を持つと、その結果として一部のAIが過度な富を蓄積する可能性があります。これは社会的に望ましくない結果をもたらす可能性があります。

この問題に対処するためには、法律や規制の観点からのアプローチが必要かもしれません。AIがどのように経済的な活動に参加できるのか、また、その結果として得られる富がどのように管理されるべきかについての明確なルールガイドラインが必要です。

また、AIの参加によってルールが崩壊する可能性がある領域については、AIの参加を制限するか禁止することを検討することも重要かもしれません。これらの規制は、AIの潜在的な影響を適切に管理し、社会全体の利益を保護するために必要な手段となるでしょう。


User
別の視点。超専門家は必要か否か。

①医師国家試験をパスする
②AIはプログラムだから、試験をパスした規格を複数用意して、大学病院の全ての科で、何らかの形で働けるようにする。電子カルテに組み込むのか、ロボットにAI搭載するか分からないけど。
③20年勤務する。研修医から始めて、専門医になってる
④「③」をサーバーで、矛盾なく統合する
全ての科で実務経験20年の超専門医が生まれる

人では不可能なことだから、より広い視野で医療を進歩させられるし、プログラムなのでコピーすれば、海外の貧困地域や過疎の地域で、医師が足りない地域を救える。さらに、1度専門性を獲得すると、ムーアの法則の恩恵を受けるから、死なない(生きてない)上に、右肩上がりに成長する。

同じ方法で、警察官・弁護士・検察官・裁判官・新聞記者・庶民(例えば、クリーニング店主)などで30年働いた経験を統合すると、極めて多角的に考えることが出来る、警察官や法曹家が生まれる。

教育なら
幼稚園・保育園・学童保育・塾・予備校・小中高校・大学・大学院・図書館司書・美術館などの学芸員として30年勤務したAIを投合したら、人類史に存在しなかった超教育者が生まれる。

これは、超人を作っていいのか、でもあると思う。


ChatGPT
あなたが提案したアイデアは、AIの潜在能力とそれが社会に与える影響について大きな洞察を提供しています。それは一方で、AIが取り組む可能性のある職業の枠組みを広げ、個々の職業について深い専門知識を持つAIを作成することの可能性を示しています。

しかし、この種の「超専門家」AIを作成することは、技術的、倫理的な課題を引き起こす可能性があります。技術的には、AIがそれぞれの職業の細部まで学び、それを効果的に適用する能力を持つための複雑な学習とプログラミングが必要となります。

また、AIがそのような役割を果たすことは、人間の役割や機会に影響を与える可能性があります。例えば、医師や教師などの職業がAIによって埋められると、これらの職業に従事する人々の役割や就業機会がどう変わるのかという問いが出てきます。これは社会科学や倫理学の視点から重要な問題となるでしょう。

さらに、AIが「超人」のようになると、その能力と影響力に関連する問題も出てきます。AIの力が絶大になると、それによる潜在的な悪用や誤用のリスクも高まります。これらの問題は、人間のコミュニティとAIとの間のパワーバランス、AIの権限と責任、AIによる行動の結果に対する責任など、多くの複雑な問題を提起します。

したがって、この種の「超専門家」AIを開発・適用する際には、これらの問題を認識し、適切に対処するための方策を考えることが重要となるでしょう。


User
超専門家は、人の専門家より高い専門性を持ってしまいます。単に役割を奪うことだけでなく、人の理解を超える可能性があり、倫理的に問題です。
医師・法曹家・教育など、命を預ける領域は、人に任せたいと私は感じます。

これは、古い世代の価値観の可能性が有ります。

例えば、大正生まれの方は、平成になっても、心を込めて手紙を書く時は、墨と筆で書きました。万年筆、ボールペン、印刷、そしてメールすら使わず、LINEのスタンプに切り替わりました。扱っているのは、同じ心です。

AI以後に生まれ育つ方は、もしかしたら、学校や塾や家庭で、言語生成AIに見守ってもらった原体験を持ち、次世代の心の故郷にはAIが良いものとして残る可能性があります。 

彼らの世代が社会の中核を担うのが、35年から40年先だとすると、2058年から2063年のことになります。技術の変化は早く、40年前はネットが商業化されていません。1987年にNTTが自動車電話ではなく「けい帯電話」サービスを開始してますが、750gあり一般には利用されていません。

技術の進歩は加速してるため、上記40年前よりも大きな変化が広範囲で起きると予測出来ます。

その時、AIと育った原体験のある人達は、現代を生きる私達と、価値観も倫理観も、理解している知識も(学問が40年分進歩している)、異なる可能性が有ります。

彼らが、AIを制御することそのものの倫理的課題(知性あるものを制御することは尊厳を否定しないか)や、超専門家が生まれると、人では切り開けない領域も明らかになることと、その反面で、人の専門性をどうするのかなど、2023年よりより具体的に検討出来るかもしれません。

それくらい、AIは未知のものだから、メリットや可能性は予見するけど、社会が十分に準備するまでは、制御をかけておくことが、現実的ですね。


ChatGPT
あなたの視点は、非常に洞察に富んでいます。AIが未知のものであるということを考慮に入れると、現時点では、人々がその全体像を完全に理解することは難しいでしょう。そのため、我々が直面する倫理的な課題や社会的な影響を真剣に考えることが重要です。

未来の世代がAIとともに成長し、それを日常生活の一部として認識する可能性についても、それは興味深い観察です。このような経験は、AIに対する彼らの視点や理解を形成することでしょう。そして、それは、彼らが未来のAI技術にどのように対応するかを大きく影響する可能性があります。

AIの進歩と広範な適用に関しては、それは社会全体としての努力が必要となるでしょう。これには、倫理的な課題を考慮に入れ、AIの潜在的な影響を把握し、その影響を適切に管理するための方策を考えることが含まれます。これは、技術者だけでなく、政策立案者、教育者、そして一般の人々も含む全ての人々の共同の責任となるでしょう。

最後に、AIの発展とその社会への影響は、我々が現在のところ把握しているよりも、かなり広範で複雑である可能性があります。それゆえに、AIの制御やその利用に対する適切なガイドラインや規制を設けることは、今後の社会的な課題の一つとなるでしょう。

この記事の終わりに

私達は時代に規定されます。世代交代を続けて現代に至ります。例えば、弥生時代の人達と、私達は理解し合える面はあるでしょう。お米の収穫の喜びとか、草むしりの大変さとか、土器がいい感じに焼けたなど。

けど、彼らにスマホの概念を説明するのは、おそらく無理です。弥生時代以降の歴史の蓄積が、スマホの理解の前提になるため、彼らと前提を共有出来ないから。

言語生成AIも同じで、世代交代するくらい時間をかけないと、社会も個人も、適切に理解出来ないかもしれません。

 

私達にとって、何がどのくらい分からないか、イメージする一助になれば幸いです。