Soraから見るAIの倫理問題
Soraのことを無批判で「すごいすごい」と拡散している人はOpenAIの犬か?学習の元になっているデータを公開していないこと、一体誰の作品をスクレイプしてるのかもわからず、完璧な「盗作」でしかない。しかも日本語を名前に使い日本をモデルにしたり、オリエンタリズムも甚だしい
https://x.com/OpenAI/status/1758192957386342435?s=20
コピーライトされている動画でさえも、「公開されている」ものはパブリックドメインでなくても学習用のデータに使っている、ということしかOpenAIはコメントしていない。一体どんなデータを用いて動画が生成されているのか、トレーニングデータはどこから仕入れているのか、ジャーナリストやレポーターは問い続ける必要がある。この問題が明確にされない限りは、生成物に対する大衆の信頼は得られないままだ。
本職ではAI倫理教育の研究をしてるので言いますが、AI技術の発展を賞賛する前に「規制」の無さから生まれる危険性について考えてほしい。アートの盗作だけではなく、政府や軍による監視、ディープフェイクによるポルノ被害、フェイクニュース生成による誤情報と政治や戦争の操作、「現実世界」の歪みだ。
OpenAIはつい先月、AIツールの「軍事使用目的を禁止する」という項目を削除してる。偽情報の作成や情報戦争のためのコンテンツ生成に使用されることを見据えての行動だろう。
先日も、TumblrとWordpressは、ユーザーの許可なしにMidjourneyとOpenAIにユーザーデータを売ろうとしていることが404mediaの内部調査でわかりつつあることが発表された。このデータには削除した投稿やプライベートなコンテンツ、いわゆる18禁のものまで含まれているとのこと。
重要な点に着目したブログ。 「OpenAIには問題がある。変革する力を持ち、恐怖を与える。衝撃を和らげるために、ふわふわした桜の花からハイテクな渋谷の街並みまで、楽しい要素が組み込まれた日本が登場」 OpenAIはアメリカの会社。なぜSoraの発表はこんなに日本的なのか?という疑問について。
執筆者のコメント欄にはさらに重要な指摘が並んでいる。 ・日本語の看板は不正確な文字でも世界的に気づかれにくい ・日本の街並み動画はYouTubeで人気なコンテンツでたくさん学習用のデータがある ・ナードが日本好きでターゲット層にウケる、と。
もちろん、昨今の急激に進みながらもほとんどレギュレーションが行われていないAIの発展によって、偽情報、プロパガンダ、ディープフェイクなどの有害なコンテンツのために悪用されることも容易に想像できるだろう。ガードレールなしに、開発側もユーザー側も倫理観を持ってAIツールを活用できるとは到底想像できない。
Midjourneyで生成したゴミ画像論文に使って、さらにピアレビューまで通ってFrontierに載った事件が今話題になった。これからはAIが規制されない限りはアカデミアにまで甚大な影響を及ぼすだろう。
「アートとは人間であることの経験を共有するために人間が作るものであるはずなのに、アートを“コンテンツ”として希釈してしまった結果ココメロンを見る赤ちゃんのように、5秒間気を紛らわすためならなんでもいいようなモノを吐き出させなければならなくなっている」
記事を読んでくださりありがとうございます!いただけたサポートは、記事を書く際に参考しているNew York TimesやLA Times等の十数社のサブスクリプション費用にあてます。