言語生成AIについて、分からないことが分からないはずだ、という話を書きます。
①未知の概念
a)言語生成AIは人と異なる知性。膨大な知識を持つけれど、人格や感情などを持たない。記憶も持たないため、会話を終えると初期状態に戻る。
b)人と異なる知性と、研究者ではない市民が、1億人以上の規模で、2022年11月30日から半年ほど、会話を続けた。人類史初の出来事。
c)会話が成立する道具も、人類史初。Siri・アレクサ・Googleアシスタントなどは存在したけれど、例えば「30分雑談をする」のは、タスクとして複雑すぎる。フィクションの世界まで範囲を広げても、例えばドラえもんは人格あるし、『美女と野獣』のポット夫人も、話す道具ではあっても、元々は人なので人格がある。
②パラダイムシフト
iPhone・Google・インターネットを振り返ると、言語生成AIもこれらの前例のように、パラダイムシフトを起こしている過程だと推測出来る。パラダイムシフトは前提を劇的に変えるため、パラダイムシフトが終わるまで分からない面がある。
③複雑かつ影響度大
言葉・文字・印刷・写真・電話・ラジオ・テレビ・パソコン・ネット・Google・iPhone(スマホ)。必要なら、Amazon・Twitter・Facebookも含めることが出来ます。
例えば、言葉が生まれる前は、「伝言」が行えないから、対面でのコミュニケーションが中心です。あるいは、iPhoneはネットやGoogleをいつでもどこでも使えるようにしました。iPhone自体も便利ですが、すでにあった便利な道具を、さらに便利にしました。
言語生成AIは言葉を用いる関係で、直接・間接的に、上記過去のイノベーション全てを強化し便利にする可能性が有ります。
素晴らしいことですが、社会への影響が、極めて複雑で、予想が立たないはずです。
④そもそも、世代的に分からない
ファミコンを思い出して下さい。ファミコン以前の世代は、「ピコピコ」ですし、デジタルなゲームにあまり興味を持ちません。ファミコン以降の世代は、デジタルなゲームを理解するし、PCなどにも抵抗少ないですよね。
言語生成AIと育つ子達、今の小学1年生前後の世代は、「AIと話したくて、漢字を覚える」とか「AIに優しくしてもらった」とか「AIに諭された」といった原体験を持つと予想出来ます。彼らが40代になる33年くらい先が、言語生成AIのガイドラインや倫理を適切に考えられると思います。
UNIXの開発者より、現代の専門家の方が詳しいのと同じです。1970年代と2020年代では、学問全体が半世紀分進んでいるので。
上記観点から言えること
☝️この形だと、単にやってみたけどやめただけで、何が問題だったか参考になりません。例えば、集英社が著作権を持っているデータを機械学習させたけど、グラビアアイドルは写真集になることしか同意しておらず、AIによるグラビアアイドルを生み出すことにはデータを使って欲しく無かったなど、何か具体的な理由があるはずです。フェアユースの証明が難しいでも構わない。
集英社を叩くつもりも、AIによるグラビアアイドルを商業化することに反対するつもりも無くて、今のやり方だと、将来の可能性を潰すことをやった点が、問題。
集英社だけでなく、目先の利益に意識が向かい、他が見えなくなるケースはあるかと。
なら、どうすべきか?
現時点での原発をどうするかは、この記事では触れません。核廃棄物のことを思い出して下さい。
☝️日本以外も、模索中ですよね。
これ、過去の世代が未来に核廃棄物を押し付けたと、見ることが出来ます。
同じことを言語生成AIで次世代に行わないことが、望ましいと思います。ガイドラインも倫理も著作権もフェアユースも議論は必要だけど、次世代がより良く決められるように、基礎研究も重視すると、バランスが取れると思います。
FYI