HOME総合情報概要・基本データ刊行物教養学部報656号(2024年7月 1日)

教養学部報

第656号 外部公開

IPSJ/IEEE-CS Young Computer Researcher Awardを受賞して

馬場雪乃

 "Machine Learning for Human-AI Collaboration"という研究成果に対して、二〇二四年のIPSJ/IEEE Computer Society Young Computer Researcher Awardを受賞致しました。共同研究者の皆様や日頃の研究活動を支えてくださっている皆様に、深く感謝申し上げます。

 私は、人工知能の一分野であるヒューマンコンピュテーションの研究を中心的に進めてきました。ヒューマンコンピュテーションは、人間を人工知能システムの部品として捉えて、システムの内部に取り入れるという考え方です。これにより、人工知能だけでは難しい問題の解決を目指します。ヒューマンコンピュテーションの有名な例にreCAPTCHAがあります。reCAPTCHAは、大量の書籍の電子化のためのシステムで、ある文字列の画像が与えられたときに、まずは二つの人工知能システムを使って、文字認識を試みます。両者の答えが一致すればそれを採用します。一致しなかった場合、その文字列は人工知能には認識が難しいものとして人間に問い合わせます。このようにして、人間を文字認識システムの中に組み込んでいます。

 人間に問い合わせた時に、すべての人が正しく答えるとは限りません。そこで、精度を上げるために、同じことを複数人に問い合わせて、その中から正しそうなものを採用するという方法が用いられます。機械学習を用いて、複数の情報源の中から信頼できる回答を見つけ出す技術は「真実発見」として知られています。例えば、共通テストに対する受験生の回答だけから正解を予測する問題は、真実発見の一例です。簡単には多数決を用いますが、各自の回答だけからそれぞれの信頼性を統計的に推定した上で、回答の信頼性を推定する手法が研究されています。多くの技術は、Yes/Noといった二値や、数値といった定型的な回答を対象にしていたのに対して、我々は、文章などの非定型の回答を対象にした真実発見技術を開発しました。回答に対する評点を他の人間から獲得します。この評点を利用して回答の信頼性を推定しますが、評価者全員が信頼できるとは限りません。そこで、評価者のバイアスや信頼性をパラメータとして取り入れた数理モデルにより、回答の信頼性を推定する技術を開発しました。

 加えて、信頼性が高い情報源(「専門家」)が少数派となってしまい、多数決で負けてしまうという問題に対処するための、新しい多数決の方法も開発しました。この手法は、専門家でないと答えられないような難しい問題では、答えを知る専門家同士の回答は一致しやすいが、答えを知らない非専門家同士はでたらめに答えるため回答が一致しづらいことを利用しています。複数の問題に対する各自の回答を一つにまとめて、その上で多数決を取ることで、専門家が多数派となるように工夫をしています。

 真実発見に加えて、人間参加型機械学習の研究でも成果を挙げました。人間参加型機械学習は、機械学習モデルの学習時に人間の知見を取り入れることで、より良いモデルを学習する技術です。ChatGPTに代表される、大規模言語モデル(LLM)においても、LLMの出力が人間にとって安全なものになるように調整するため、RLHF(Reinforcement Learning from Human Feedback)という技術が採用されています。このRLHFも、人間参加型機械学習の一種です。

 我々は、人間の着眼点を機械学習モデルに取り込む技術を開発しました。機械学習モデルを構築する際には、予測対象の特徴表現が必要となります。たとえば画像の場合は、ピクセル情報から特徴を抽出します。我々は、人間が着目する特徴を獲得し、機械学習モデルに取り入れる技術を開発しました。たとえば、モネとシスレーが描いた絵を分類する機械学習モデルを構築することを考えます。まず人間に、それぞれの絵の例を提示し、両者を見分けるためのYes/No質問を記述させます。たとえば、「筆致が粗いですか?」「空が描かれていますか?」などです。続いて、それぞれに絵に対する、質問への回答を獲得します。回答を0/1に変換し、ベクトルとして並べたものを、その絵の特徴として利用します。さらに、現在のモデルが誤分類する例を人間に提示して新たな特徴を獲得することで、逐次的に有用な特徴を得ることができる技術となっています。

 信頼できる情報源を見つけたり、人間の知見を機械学習モデルに取り入れるという技術は、人工知能の安全性を高め、人間と協調する人工知能を実現するために重要な技術です。また、近年は、Human Computer Interactionの観点で人間と人工知能の協働の研究を進めています。特に人間の意思決定を支援する人工知能技術の開発を行っています。例えば、人間が公平な判断ができるように支援する人工知能や、多様性に配慮した集団意思決定を支援する人工知能技術を開発しています。今後も、人間の社会をより良くするための人工知能の研究を進めてまいります。

(広域システム科学/情報・図形)

第656号一覧へ戻る  教養学部報TOPへ戻る

無断での転載、転用、複写を禁じます。

総合情報