[go: up one dir, main page]

メディア

「生成AI=悪ではない」――セガ、ゲーム開発でAI活用するための取り組みを紹介 “安心安全”担う方法とは?(2/2 ページ)

» 2025年07月24日 08時00分 公開
[島田拓ITmedia]
前のページへ 1|2       

ガイドラインには「明確な線引きない」 なぜ?

 生成AI委員会が公開したガイドラインは、2、3カ月ごとに情報を更新してきた。生成AIと著作権の関係や、利用可能なAIサービス、入力可能なデータなどをまとめており、公開当初は1ページの簡潔なものだったが、現時点では数ページにまで増えた。

ガイドラインの内容

 一方、横島氏によると、ガイドラインでは基本的に「このツールはこういう用途であれば使って良い・悪いという明確な線引きはしていない」という。あえて問い合わせをしてもらうようにすることで、社内の各部門のAI活用ニーズを把握。その都度、リスクやツールの運用範囲などを検討し、部門と調整することで、効果的なAI活用やガイドラインの改善につなげられるようにした。

ガイドラインのポイント

 なお、会社として契約済みのAIツールについては「ホワイトリスト」としてガイドラインに明記し、問い合わせ無しで利用できるようにしている。

 社内で利用できるAIサービスか検討していくなかで、NGとなる場合もある。例えば、データのアップロード時に著作物の権利がサービス側に移動するものや、AIの学習に使わないようオプトアウトできないものなどは、現時点で利用を禁止している。

利用NGとなった例

「生成AI=悪というわけではない」

 生成AI委員会の活動を続けるなかで、見えてきた課題もある。横島氏は、AIツールの数が非常に多く、それぞれ機能や規約が異なるために「『翻訳であれば使っていい』といった大ざっぱな判断が難しい」と指摘。他にも、技術の進化が速く、仕様や利用規約のアップデートが盛んなため検証が追い付かない、部署ごとにAIツールの利用範囲・用途を決めているため、リスク管理が煩雑になるといった課題があるとした。

実運用で見えた課題

 一方で、横島氏は「気づいたら隣で生成AIが仕事をしているような、AIを使わざるを得ない時代」と改めて強調する。「基本的に使っちゃダメ、生成AI=悪というわけではなく、それに適したツールやモデルをどういう範囲・責任で使うかまでを含めた設計が大切」とルール作りの重要性を指摘。今後はAIツールの利用状況の可視化や、社員全体のAIリテラシー向上などにも注力したい考えを示した。

今後の展望

 他方、矢儀氏は、セガの社内文化のおかげで、AI活用に関するガイドラインを最低限にとどめ、その都度問い合わせるという運用が成り立っている部分もあると補足した。同社には「悪いものは悪い、白と黒、灰色はない」と考えている人が多く、問い合わせの前段階の現場の考えや判断も運用の一助となっていると説明。汎用性が低い可能性もあるため「それぞれの組織にフォーカスしてチューニングしていけば良いものになる」とした。

前のページへ 1|2       

Copyright © ITmedia, Inc. All Rights Reserved.

アイティメディアからのお知らせ