HOME総合情報ニュースイベント

最終更新日:2024.03.26

ニュース

イベント 2023.06.06

【イベント】伊藤穰一講演会「大規模言語モデルを超えて。生成AIの発展に日本が果たす役割」(開催日:2023/6/12)

区分 講演会等

対象者

社会人・一般・在学生・卒業生・教職員・大学生
開催日時

2023年6月12日(月)16:00-17:30

開催場所

駒場地区

会場

東京大学駒場Ⅰキャンパス 900番教室
https://www.c.u-tokyo.ac.jp/info/about/visitors/maps-directions/campusmap.html

定員

300名

参加費

無料

申込方法

事前申込み不要

概要

千葉工業大学変革センター長で、人工知能やIT全般の研究者、起業家、ヴィジョナリーとして世界的に有名な伊藤穰一博士をお迎えして、以下の講演会を行います。


演題 『LLMを超えて:日本の信頼性のあるAIのためのより安全な、ニューロ-シンボリックなスケーリングルート』
副題 『 "大丈夫、ニューロ-シンボリックAIがここにあります。確率論的プログラミングのおかげで -- そして日本はリードできます。ChatGPTよりもその価値がより反映されています』


【講演要旨】
昨年のChatGPTのリリース以来、大規模言語モデル(LLM)は正当に一般の人々、ビジネス、政府、そして学界の注目を集めています。しかし、LLMは生成型ニューラルネットワークの一例であり、したがってシンボリックシステムと同じくらい理解可能で効率的ではありません。幸いにも、確率的(不確実性を意識した)シンボリックプログラミングとメタプログラミングの新しい進歩により、データからシンボリック生成モデルを学習することが可能であることが示されました。確率的プログラミングは、計算コストと必要なデータの量の両方の観点から、ニューラルネットワークと比較して訓練と推論の効率を大幅に向上させます。

LLMとシンボリック確率的プログラム、メタプログラムを結びつけるニューロ-シンボリックシステムを用いて、日本の医療データ、健康データ、金融データに基づいた信頼性のあるAIへの自然言語インターフェイスを作成することが可能です。例えば、構造化された日本のデータの大規模人口モデル(LPM)を開発することができます -- そしてLLMと違い、LPMは同時に改善された精度と強化されたプライバシーを提供することができます。


私たちは日本でそのようなシステムを開発し、データ、モデル、トレーニングのガバナンスモデルを開発するという巨大な機会と責任を持っています。過去には保守的な日本の哲学と文化が起業家精神を妨げてきましたが、日本の哲学の多くがAIのガバナンスと開発のフレームワークを作り出すのに寄与する可能性があります。


(以上の日本語は、GPT-4による機械翻訳で、講演者から送られてきた原文は下の英文です)


Joi Ito

TITLE: Beyond LLMs: a safer, neuro-symbolic scaling route for trustworthy AI in Japan

TL;DR: "you'll be fine, neuro-symbolic AI is here, thanks to probabilistic programming -- and Japan can lead, with its values better reflected than with ChatGPT"

ABSTRACT

Since the release of ChatGPT last year, Large Language Models (LLMs) have rightly captured the attention of the general public, businesses, government and academia. But LLMs are an instance of generative neural networks, and thus are not as understandable and efficient as symbolic systems. Fortunately, new progress in probabilistic (uncertainty-aware) symbolic programming and meta-programming has shown it is possible to learn symbolic generative models from data. Probabilistic programming vastly improves the training and inference efficiency compared to neural networks, in terms of both computational cost and the amount of data that is needed.

Neuro-symbolic systems that connect LLMs with symbolic probabilistic programs and meta-programs let us create a natural language interface to trustworthy AI that is grounded in Japanese medical data, health data, and financial data. For example, we can develop Large Population Models (LPMs) of structured Japanese data -- and unlike LLMs, LPMs can deliver improved accuracy and enhanced privacy at the same time.

We have a tremendous opportunity and responsibility to develop such systems in Japan and develop a governance model for the data, models and training. While conservative Japanese philosophy and culture have hindered entrepreneurship in the past, it is possible that much of Japanese philosophy may contribute to developing governance and development frameworks for AI.

主催:「共創研究」社会連携講座


20230612_joikouenkai.jpeg

関連URL

「共創研究」社会連携講座について:https://www.c.u-tokyo.ac.jp/info/research/sponsoredprograms/collective-intelligence/index.html

お問合せ先

池上高志 東京大学大学院教授(広域科学)、東京大学特任教授(「共創研究」社会連携講座、Collective Intelligence Research Laboratory)
E-Mail:ikeg*sacral.c.u-tokyo.ac.jp


茂木健一郎(ソニーコンピュータサイエンス研究所上級研究員、東京大学大学院客員教授(広域科学)、東京大学特任教授(「共創研究」社会連携講座、Collective Intelligence Research Laboratory)
E-Mail:kenmogi2005qualia*gmail.com
※メールを送信する際は、*を半角@マークに変更してください。

前のページへ戻る

総合情報