ジェネレーティブAIの倫理に対するAdobeのアプローチと取り組みについてを公開

ジェネレーティブAIの倫理に対するAdobeのアプローチと取り組みについてを公開

AIの倫理について、
Adobe社executive vice presidentの
ダナ・ラオの記述は一読ありです。

AIが生成するコンテンツの真偽、
最後の審判は
やはり人間がする側になるのでしょうね。

■ジェネレーティブAIとは(NIKKEI KONPASS)
https://www.nikkei.com/compass/theme/83559

■ダナ・ラオについて
2018年6月にエグゼクティブ・バイスプレジデント、
ジェネラル・カウンセル、コーポレート・セクレタリーに任命
20年以上の法務経験を活かし、アドビの法務・政府関係チームを率いて、
アドビを業界のリーダーとして次の章に導くために貢献。

ジェネレーティブAIの倫理に対するAdobeのアプローチと取り組みについての記事はこちらです。
当然ですが全編英語ですが、自動翻訳でよければ下記に日本語翻訳引用しておきます。

■Responsible innovation in the age of generative AI(ジェネレーティブ AI の時代における責任あるイノベーション)Adobe Blog
https://blog.adobe.com/en/publish/2023/03/21/responsible-innovation-age-of-generative-ai

※記事の日本語訳(引用:Responsible innovation in the age of generative AI(ジェネレーティブ AI の時代における責任あるイノベーション)Adobe Blog)

ジェネレーティブ AI の時代における責任あるイノベーション

ジェネレーティブ AI は、創造性に対する私たちの考え方を変えています。 「ペーパードラゴンの3Dレンダリング、スタジオスタイルの写真」と入力すると、猛烈な折り紙の生き物の肖像画の複数のバリエーションが即座に提供されます。または、いくつかのデータポイントと簡単な指示を組み合わせると、チャットボットが説得力のあるマーケティングメールを吐き出すことができます. このテクノロジーが個人のクリエイターや企業にもたらす力を容易に理解できます。 ジェネレーティブ AI を使用すると、ピクセル (またはペイント) の代わりにテキストでペイントできます。 ビジネス面では、自動生成されたテキスト、電子メール、およびコンテンツを通じて顧客と効率的につながることができます. 適切な方法で実装されたジェネレーティブ AI は、既存のワークフローに精度、パワー、スピード、使いやすさをもたらし、人々が仕事のより戦略的または創造的な部分に集中できるようにします。

記事上で
1倫理と責任に基づく
2透明性が信頼を築く
3クリエイターの選択と管理を尊重する
4進行中の旅

ジェネレーティブ AI は、デジタル時代の倫理と責任に関する新たな問題への扉も開きます。 アドビやその他の企業がこの最先端のテクノロジーの力を活用する中で、責任ある開発と使用を導く一連のガードレールを開発、実装、尊重するために、業界全体で協力する必要があります。

倫理と責任に基づく

ジェネレーティブ AI ツールを構築している企業は、AI 倫理フレームワークから始める必要があります。 一連の簡潔で実用的な AI 倫理原則と正式なレビュー プロセスを企業のエンジニアリング構造に組み込むことで、ジェネレーティブ AI を含む AI テクノロジが、顧客を尊重し、企業の価値観に沿った方法で開発されるようにすることができます。 このプロセスの中核となるのは、トレーニング、テスト、および必要に応じて人間による監視です。

ジェネレーティブ AI は、他の AI と同様に、トレーニングの対象となるデータによってのみ効果を発揮します。 有害な出力の軽減は、安全で包括的なデータセットの構築とトレーニングから始まります。 たとえば、クリエイティブな生成 AI モデルである Firefly ファミリーの Adobe の最初のモデルは、Adobe Stock 画像、オープン ライセンス コンテンツ、および著作権が期限切れになっているパブリック ドメイン コンテンツでトレーニングされています。 精選された多様なデータセットでのトレーニングは、商業的に安全で倫理的な結果を生み出すという点で、本質的にモデルに競争力を与えます。

しかし、それはモデルに何が入るかだけではありません。 出てくるものについてもです。 優れたデータを使用しても、AI に偏りが生じ、意図せずに差別したり軽蔑したりして、人々の価値が低く感じられる可能性があるからです。 その答えは、厳格で継続的なテストです。 アドビでは、AI 倫理チームのリーダーシップの下、モデルの安全性とバイアスを社内で常にテストし、その結果をエンジニアリング チームに提供して問題を解決しています。 さらに、当社の AI 機能にはフィードバック メカニズムがあり、公開されたときにユーザーが懸念を報告し、それらを修正するための措置を講じることができます。 ジェネレーティブ AI をすべての人にとってより良いものにするために協力できるように、企業が一般の人々との双方向の対話を促進することが重要です。

トレーニングに加えて、企業は製品の倫理を改善するためにさまざまな技術的手段を組み込むことができます。 ブロック リスト、拒否リスト、NSFW 分類子を実装して、AI モデルの出力における有害なバイアスを軽減できます。 企業がまだ出力に確信が持てない、または満足していない場合は、出力が期待どおりであることを確認するために、ループ内に人間を追加または要求することができます。

また、企業が外部ベンダーから AI を調達する場合はいつでも (企業のワークフローに統合する場合でも、自社製品に統合する場合でも)、AI が自社の倫理基準を満たしていることを確認することは、ベンダー リスク プロセスの一部である必要があります。

透明性が信頼を築く

また、ジェネレーティブ AI モデルが生成するコンテンツについての透明性も必要です。 先ほどの例を考えてみてください。ただし、ドラゴンをグローバル リーダーのスピーチに置き換えてください。 ジェネレーティブ AI は、すでに誤った情報が氾濫しているデジタルの世界で、説得力のある合成コンテンツを生み出す能力について懸念を引き起こしています。 AI によって生成されたコンテンツの量が増えるにつれて、メッセージを配信し、それが真実であることを証明する方法を人々に提供することがますます重要になります。

アドビでは、コンテンツ資格情報を使用して、このレベルの透明性を製品に実装しています。 コンテンツ認証情報を使用すると、作成者は、名前、日付、作成に使用したツールなどの情報をコンテンツに添付できます。 これらの資格情報はコンテンツとともに移動するため、人々はそれを見たときに、コンテンツがどこから来たのか、途中で何が起こったのかを正確に知ることができます.

私たちはこれを単独で行っているわけではありません。 4 年前、私たちは Content Authenticity Initiative を設立し、このソリューションをオープンな方法で構築して、誰もが自分の製品やプラットフォームに組み込むことができるようにしました。 テクノロジー、メディア、政策のあらゆる分野から 900 人以上のメンバーが集まり、このソリューションを世界に広めています。

特にジェネレーティブ AI については、ジェネレーティブ AI で何かがいつ作成または変更されたかを示すコンテンツ認証情報を自動的に添付します。 そうすれば、人々はコンテンツがどのように作られたのかを確認し、それを信頼するかどうかについてより多くの情報に基づいた決定を下すことができます。

クリエイターの選択と管理を尊重する

クリエイターは、自分の作品がジェネレーティブ AI のトレーニングに使用されるかどうかを制御したいと考えています。 一部の人にとっては、コンテンツを AI から除外したいと考えています。 他の人にとっては、特に自分の仕事の帰属を保持できる場合は、この新しいテクノロジーの成長を助けるためにトレーニング データで使用されることを喜んでいます。 クリエーターは来歴技術を使用して、コンテンツがどこへ行っても一緒に移動する「Do Not Train」認証情報を添付できます。 業界での採用により、これは Web クローラーがデータセットの一部として「トレーニングしない」資格情報を使用するのを防ぐのに役立ちます。 クリエーターの貢献に報いるための探索的な取り組みとともに、クリエーターに力を与え、彼らの体験を向上させるジェネレーティブ AI を構築することができます。

進行中の旅

私たちはジェネレーティブ AI の表面をなぞっただけであり、テクノロジーは日々改善されています。 進化し続けるジェネレーティブ AI は新たな課題をもたらし、業界、政府、コミュニティが協力してそれらを解決することが不可欠です。 ジェネレーティブ AI を責任を持って開発するためのベスト プラクティスを共有し、基準を遵守することで、AI が持つ無限の可能性を解き放ち、より信頼できるデジタル空間を構築することができます。

ちなみにジェネレーティブ AI は、
すでにAdobeの各ソフトで大活躍しております。
Adobe Photoshopの「ニューラルフィルター」、
Adobe After Effectsの「コンテンツに応じた塗りつぶし」、
Adobe Experience Platformの「アトリビューションAI」、
Adobe Acrobatの「Liquid Mode」などです。

これらは、今回の記述によると、
説明責任、社会的責任、透明性という
アドビのAI倫理原則に沿って開発、展開されてもいるそうです。
テクノロジー、メディア、政策のあらゆる分野から
900 人以上のメンバーが集まり、
このソリューションを世界に広めているのだそうです。
900人!さすがAdobe。AIの使用に単独で判断をしていないのは
AI倫理の参考になります。

■Adobe
https://www.adobe.com/jp/

最新情報をチェックしよう!
>松元美智子クリエイティブブログ💖公式

松元美智子クリエイティブブログ💖公式

松元美智子 1996年少女漫画雑誌「ちゃお」デビュー/漫画家/イラストレーター/3DCGゲームアニメーター/書籍執筆/投資家/Python/UE5/最新刊「少女マンガの作り方」/Web「松元美智子クリエイティブブログ♡公式」で過去の漫画や制作に役立つ情報毎日投稿中/法政大学経済学部経済学科通信教育部生/メンタル心理カウンセラー

CTR IMG