京セラは、AIの利活用に伴うリスク管理体制の強化を目的に、ABEJAの支援を受けてAIガバナンス体制を構築した。8月4日、ABEJAが発表した。AI倫理委員会の設立やリスクのチェック体制を整備することで、AIの開発・利活用におけるリスクを早期に検知し、適切に対処する。
京セラは、人口減少や働き方の多様化といった社会課題への対応と競争力強化のため、全部門でのデジタル化を推進している。その一環としてAIの活用を進める中で、AI利用に伴う法的なリスクや倫理上の問題に適切に対応するための社内体制構築が課題となっていた。
体制構築のパートナーとしてABEJAを選んだ理由として、京セラは同社のAI倫理およびガバナンスに関する豊富な知見や取り組みを評価した。ABEJAは2019年から外部有識者を交えた委員会を設置しているほか、2022年からは自社でもAIの開発や利用に関する指針となるAIポリシーを策定・運用するなど、AI倫理に関する議論が活発化する以前から先進的な取り組みを継続している。
今回のプロジェクトでは、まず京セラにおけるAIの企画から開発、運用に至る全業務プロセスを調査。その上で、京セラの実務に即したAI倫理委員会の組織体制や運用方法、活動内容、事務局の設置などについてABEJAが具体的なアドバイスを行った。また、委員会で利用するAI倫理のチェックシートや判断基準、さらに各担当者が日常業務で活用できるチェックリストも策定した。このチェックリストを用いることで、担当者自身が確認を行い、重大な問題の発生を未然に防ぐことが可能になる。