AIのことを語りたい。

言語生成AIと人の共生は、言語生成AIと共に学ぶこと。言語生成AIの主に人文系の学習用途を模索するblogです。

Microsoftの開発中のBingAIの検閲のような機能制限に触れて思うこと。

ChatGPT、Bard、BingAIをそれぞれ使い、どれも開発中の技術であることと、自然言語処理が出来るAIの魅力と可能性を感じています。

 

極めて強力な技術だから、広告の取り扱いは慎重にして欲しいです。Googleが世界最大の広告会社の側面があるように、企業が利益を求めることは当然のことです。でも、広告はノイズになるなどマイナス面もあるから、AIの信頼性や快適度を損なう広告の出し方はやめて欲しいです。(サブスク式にして、広告非表示がベターかも)

 

BingAIとある話題を行ったところ、昨日までは普通に会話出来たことに、「他の話題にしましょう」としか回答せず、入力欄の上にも「そろそろ他の話題に移る時間です」と表示されるようになりました。これは、機能制限かつ事実上の検閲ですから、Microsoftは根拠を明示して欲しいです。

(もしも、AIが回答出来ないという判断をMicrosoft社がしたのなら、「その話題は、AIである私では回答出来ないから、私の開発者に伝えます」など、定形文でいいから回答させるのが無難だと思うのです)

 

なぜならば、私はMicrosoftガイドラインや倫理的な問題に関係する話題は扱っておらず、Microsoft社が公的にネットで公開した情報を話題にしたのですから、「事実上の検閲」を行う意味が理解出来ません。Microsoftの判断が正しいなら、公開したページ自体を非公開にしないと、矛盾しませんか?

 

様子を見て、時間が解決するのを待つ必要があります。

 

現在の最先端の言語モデルの開発は、技術もそうだけど、コストがかかることが指摘されています。今のところ、GoogleのBardは検閲のような振る舞いをしませんが、MicrosoftのBingAIの挙動を見て、不快感を覚えています。現在のAIは道具ですから、ガイドラインを守り、利用者の責任と判断で利用しています。大企業が、合理的な根拠を示さず、利用者の判断よりも企業の都合を優先させれば、不快にもなりませんか?

 

これ、Gmailなどのメールサービスに置き換えると、特定の話題を書けないことと同じです。Googleなどの検索エンジンに置き換えるなら、特定のキーワードは検索させないことに当たります。

 

情報を扱う巨大企業は、技術的には簡単に検閲を行い、「情報統制」と同じことを行えます。そのような事態は、各社が掲げるポリシーと矛盾しますから、開発中の技術とはいえ、事実上の検閲のような機能制限には、敏感かつ慎重であって欲しいです。