[go: up one dir, main page]

企業

責任ある機械学習イニシアティブの開始

投稿者
金曜日, 2021年5月14日金曜日

責任ある、応答性の高い、コミュニティ主導の機械学習(以下、ML)システムを目指すには、マルチステークホルダーが協力して取り組む必要があります。TwitterがこれまでMLアルゴリズムを改善するためにどのような取り組みを行ってきたのか、「責任あるML」という全社的イニシアティブを通じて、今後、どのような方向に進めて行こうとしているのかを、皆さんに詳しくお知らせしたいと思います。

「責任あるML」イニシアティブは、以下の4つを柱に構成されます:

  • Twitterにおけるアルゴリズムの決定に対して責任を持つこと
  • 結果の平等性と公平性
  • Twitterにおける決定および決定に至るまでの過程の透明性
  • エージェンシーおよびアルゴリズムの選択の実現

責任ある技術の利用には、時間の経過とともに生じる可能性のある影響についての調査も含まれます。Twitterが機械学習を使用した場合、1日あたり数億件のツイートに影響を与える可能性があり、場合によっては、システムが設計時の意図とは異なる動作をし始める可能性もあります。こうした微妙な変化がTwitterを利用する人々に影響を及ぼすようになる可能性もあります。Twitterとしてはそうした変化について確実な調査を行い、より良いプロダクト開発に役立てたいと考えています。

 

イニシアティブの参加者と今後の活動について

技術的な解決策だけでは、アルゴリズムの決定によって生じる可能性のある有害な影響を解消できません。そこで、Twitterでは「責任あるML」のために、技術、研究、Trust & Safety、各プロダクトの担当チームなど、社内のさまざまな部門部署のメンバーたちで構成される全社的なワーキンググループを発足させました。

この取り組みを指揮するのは、Twitterの「機械学習における倫理、透明性およびアカウンタビリティ(META)」チームです。このチームは、専任のエンジニア、研究者、データサイエンティストによるグループで、社内のあらゆる部門、部署と協力して、アルゴリズムにおける意図しない悪影響について、利用者に送信されるデータや現状の評価を行って、Twitterとしてどの問題に取り組むべきか、優先順位が付けられるようにします。

Twitterは以下の手法を用いてこのイニシアティブを進めていきます。

機械学習の決定の影響を調査して理解すること:Twitterが使用するアルゴリズムに潜在的な危害が存在するか否か、詳細な分析、調査を行って評価します。これらの分析結果のうち、以下については、今後数カ月以内に一般に公開する予定です。

  • Twitterの画像トリミング(顕著性)アルゴリズムの性別および人種バイアス分析
  • 人種サブグループ全体を通じたホームタイムラインのレコメンデーションの公平性評価
  • 7カ国を通じた異なる政治的イデオロギーに対するコンテンツ、レコメンデーションの分析

学習結果を応用してTwitterの改善に努める:責任あるMLの取り組みの最終的なゴールは、私たちがこの取り組みから学んだことをTwitterの改善に応用していくことです。METAチームは、Twitterのシステムがどのように機能しているのかを調査し、その結果をTwitterのUX向上に役立てます。これによって、アルゴリズムを削除し、画像についてはツイートする人自身がより細かくコントロールできるようにするなど、プロダクトに変更を加えたり、特定のコミュニティに非常に大きな影響を及ぼすTwitterのポリシーの立案と策定方法に新たな基準を設ける可能性もあります。こうした取り組みの成果は、必ずしもプロダクトの変更という目に見える形になるとは限りませんが、TwitterにおけるMLの構築方法や応用方法について、私たちの意識を高め、重要な議論を深めていくことにつながります。

Twitterのアルゴリズムへの理解を深め、どのような情報をもとにTwitter上でどのような影響を及ぼしているのか、皆さんにより理解していただけるよう、説明可能なMLソリューションの開発にも取り組んでいます。また、アルゴリズムの選択によって、Twitterを利用する人たちがより多くの情報に触れ、自分が望むようにTwitterをコントロールできるようにしたいと考えています。この機能については現在、検討の初期段階であり、近日中に詳細をお知らせする予定です。

Twitterが学習してきたことを一般に公開し、広くフィードバックを求めていくこと:Twitterでは学習してきたことやベストプラクティスを社内外で共有し、業界全体としてこの問題に対する理解を高めることでTwitterのアプローチの改善につなげると同時に、説明責任を果たしていきます。これは、専門学術誌への論文掲載、データインサイト、調査結果やアプローチに関する高レベルなドキュメントといった形で行われる可能性があり、新たな課題に対処するために、場合によっては失敗したケースに関する情報も提供していきます。

Twitterを形作っていく上で重要な役割を果たしているのは一般の人々であり、責任あるMLを役立てたいと考えています。一般の人々からのフィードバックは、Twitterが使用している自動化システムの公平性と平等性を評価する上では特に重要です。Twitterを利用する人々がプロセスに加わることで、より多くの良い情報に基づいた意思決定を下すことができます。そのため、Twitterにおける機械学習の利用方法に関して、皆さんの意見を共有する機会をできるだけ増やしたいと考えています。

 

今後の展開について

責任あるMLはまだ始まったばかりであり、中長期で行っていくべき領域です。私たちは「テクノロジー倫理」において積極的に貢献することを目指し、オープンな精神でこの道を探っていきたます。Twitterの責任あるMLイニシアティブやMETAの作業内容等についてのお問い合わせは、#AskTwitterMETAで気軽にご質問ください。また、この取り組みに参加したい方は、是非こちらをご覧ください。

このツイートは閲覧できません
このツイートは閲覧できません.