★阿修羅♪ > 雑談・Story42 > 305.html
▲コメTop ▼コメBtm 次へ 前へ ★阿修羅♪
「ドラえもん型AI」もうすぐ実現? 人とAIが「共生」する未来社会って? 第一人者・栗原聡教授に聞いた(東京新聞)
http://www.asyura2.com/21/idletalk42/msg/305.html
投稿者 蒲田の富士山 日時 2024 年 5 月 06 日 16:43:05: OoIP2Z8mrhxx6 ipeTY4LMlXiObY5S
 

2024年5月6日 16時00分

https://www.tokyo-np.co.jp/article/321779

 対話型の生成人工知能(AI)「ChatGPT」の登場から1年あまり。人の質問に瞬時に答を返す当意即妙ぶりは、その先の、AIが人の指示がなくても動き出す社会の到来が近いことを予感させる。日本におけるAI研究の第一人者、慶応大学理工学部の栗原聡教授は自律型AIの「数年内の登場」を予測。規制と利用を巡る論議が内外で加速する中、人がAIと共生する鍵はどこにあるのか。現状と展望を尋ねた。(滝沢学)

◆ChatGPTの反応が人間っぽくなった理由は

 ―米新興企業オープンAIが2022年11月に公開したチャットGPTは、人のような反応を見せ、世界を驚かせた。これはAI開発史における画期的な「技術進歩」と言えるのか。

 「ChatGPT自体は、その5年前に出てきた大規模言語モデル『トランスフォーマー』を利用して生まれ、使った技術は決して新しくはなかった。注目すべきは、(AIに学習させる)データの量を大幅に増やしたら、AIが急に賢くなった点だ」

◆予期せぬ性能アップ 人の脳も同じくらい複雑?

 ―どれくらいの量か。

 「2倍、3倍、4倍と増やしても全然らちが明かず、10倍、100倍、1000倍と指数関数的に増加させ、10の23乗という量のデータを超えたらスパッと性能が上がった。世界中の研究者は誰も予期していなかった。言語を操る人の脳が、少なくともこれくらいの複雑さということなのだろう」

―――――――――――――――
 栗原聡(くりはら・さとし) 1965年、神奈川県生まれ。NTT基礎研究所、大阪大、電気通信大などを経て慶応大理工学部教授、慶応大共生知能創発社会研究センター・センター長。「人と共生できる次世代AI」の研究を進める。漫画家、故・手塚治虫さんの代表作の一つ「ブラック・ジャック」の新作を、生成AIとのやりとりで制作するプロジェクト「TEZUKA2023」の総合プロデューサーを務めた。人工知能学会の副会長・倫理委員会委員長。著書に「AI兵器と未来社会 キラーロボットの正体」(朝日新書)など。
―――――――――――――――

◆「AIの民主化」進行 誰でも使えて懸念も増大

 ―3月に欧州連合(EU)や国連総会でそれぞれ、世界初の包括的なAI規制法案が可決されたり、安全性重視などを各国に求める決議案が採択されたりした。日本も4月19日に初の指針「AI事業者ガイドライン」を公表した。なぜ今これほどリスク管理が注目されるのか。

 「生成AIのように、(専門家でなくても)誰もがAIを利用できるようになったことが、規制の必要性を高めた理由の一つ。『AIの民主化』が進んだ。一方、AIの開発はグーグルやアップルなど米巨大IT企業が独占しており、民主主義とはほど遠く、開発側が独裁的に悪用できる余地がある」
 「企業の営利に振り回されるのは間違いとの考えや、(開発側だけでなく利用者側も)AIを悪用し得る可能性が高まったとの認識も広がった。米大統領選で生成AIによるフェイク拡散が問題となり、中東で続く戦闘ではAIドローンといったAI搭載兵器が使い放題だ」

◆次世代AIはもう「道具」ではなくなる

 ―第4世代と呼ばれる自律型AIの実現はいつ頃か。

 「数年のうちに実現する可能性がある。ChatGPTのような生成AIの登場で、われわれは自律型AIを作る入り口に立ったと言える」

―――――――――――――――
 第4世代AI   AI研究は1960年代、80年代の2回のブームを経て、現在は画像や音声の認識精度を飛躍的に高めた「第3世代AI」に進化。人の脳の神経細胞を模したニューラルネットワークを使いコンピューターに大量のデータを学習させる革新的技術、ディープラーニング(深層学習)が2010年代から成果を上げた。チャットGPTも深層学習を応用して開発された。「第4世代AI」は、高い自律性と汎用(はんよう)性を持ち人間と意思疎通できるレベルが目標。米企業家のイーロン・マスク氏は4月、人より賢いAIが2年以内に登場するとの予測を述べた。
―――――――――――――――

 ―次世代AIは、現状の「道具としてのAI」と何が違うのか。

 「(学習させて人が使う)道具のままなら、AIは結局、使う人の想像力や能力、つまり人間の自助の範囲を越えられない。それでは、複雑な社会問題はもう解決できないかもしれない。そこを突破できる期待があるとするなら、人と同じように自分で考えるAIが出てくれば、それは道具ではなくなる。AIとしてどう問題解決をすればよいかと、きっと考えるようになる。ドラえもんのような(自ら考えて動く)AIと一緒に考えることで、これまでだったら絶望的に見えた社会状況が少し変わるかもしれない」

 ―ところで、AIには偏見やバイアスがあるのか。

 「AIに学習させるデータに偏りがあるので、偏ったものができてくる。データの偏りは避けられない。ただ、われわれには知恵があるので、出来上がったAIに明らかに偏見があると分析できれば調整はできる。そういう研究は盛んになっていて、できる限り偏見をなくすように調整はできる」

―――――――――――――――
 AI事業者ガイドライン 日本政府が「AIの安全安心な活用が促進されるよう、わが国におけるAIガバナンスの統一的な指針を示す」ため、国内外の議論も踏まえて取りまとめ、4月19日に公表した。対象はAI関係の全事業者。開発者、提供者、利用者の3区分に分け、AIがもたらす社会的なリスクや懸念の緩和と、技術革新の促進を両立させるため、各事業者の対応事項を整理した。各事業者共通の10の指針として、「人間中心」の理念のもと、「プライバシー保護」「公平性」確保などが示されている。AIの活用で目指す社会と取り組みをまとめた「本編」と、具体例や本編の詳細な解説を記した「別添(付属資料)」の計約190ページで構成される。
―――――――――――――――

 ―人は次世代AIと共生する必要はあるか。

 「人間同士の対話だけでは、地球温暖化も戦争も、貧困問題も解決できていないのが現状だ。しかし、次世代AIは人間の想像を超えた解決策を提示するかもしれない。最初は信用できないかもしれないが、AIの意図をくむなど信頼感を醸成し、示された選択肢を検討できるようになれば、地球規模の難題解決に活用できるかもしれない。日本は、そこに期待したい」

【関連記事】話題のChatGPT 自然な言葉ですぐ回答できるのはなぜ? 今までのAIと違うの?<Q&A>
【関連記事】デジタル化が自由の危機に?国家を超える新たな権力の存在 山本龍彦・慶応大大学院教授に聞く  

  拍手はせず、拍手一覧を見る

コメント
1. 蒲田の富士山[2318] ipeTY4LMlXiObY5S 2024年5月06日 16:53:23 : v4ouBbv322 : RzlSZjdjZUU3SlE=[9] 報告
技術力、とかは、AIにまかせればいいや。

やはり、農本主義は、正しかった。

労働価値説は、誤りだ。

今、もうひとつ、足りないのは、国際的農本主義だ。

農本主義インターナショナル。

後進国の農民同士が対話をしなければならないが、それは、AIによる、即時通訳で可能になる。

ただし、AI価値説は、労働価値説と同じく、誤りである。

2. 蒲田の富士山[2324] ipeTY4LMlXiObY5S 2024年5月07日 12:48:27 : v4ouBbv322 : RzlSZjdjZUU3SlE=[15] 報告
AIは、ネットから情報を仕入れるらしいが、そのネット自体が偏向していたら、偏向した判断をするんではないかな。
また、AIには提供しない情報なんてのも、出てくるかもしれないし、どこまで実用になるのかね。

あと、自動翻訳(通訳)というのは、どこまで進歩しているのかな。
文字を持たない民族の農民と、また別の、文字を持たない民族の農民、とが、対話をする場合、臨席できるほどほどの能力は無い。
文字が、ネット空間上にある事が前提のAI技術である。

可能性としては、身体を持ったAIが、文字を持たない民族の農民の家に1年以上お世話になり、すべての動作と言語の関連を掌握してしまい、また、もうひとつ別の、文字を持たない民族の農民の家に1年以上お世話になり、言語を掌握して、いわば、オーダーメイドの通訳ロボットに成長するという方法がありえる。
このロボットのメンテナンス費用とか、電気代は、農本主義インターナショナルとかの組織が負担する。(迷惑をかけてはいけない。)

現在の技術では、このようなロボット作成も、可能ではないだろうか?
可能ではあるが、やらないだけだが。

3. 松岡太郎[256] j7yJqpG@mFk 2024年5月08日 14:46:17 : WifzTtl1pA : REdUMGFmcTkvdHM=[2] 報告
ロボットにしろ、機械。放送禁止用語、きしんに、AIが勝てるわけないやろ。常識、だれや。自分で考えろ。

[12初期非表示理由]:管理人:アラシ
4. 蒲田の富士山[2333] ipeTY4LMlXiObY5S 2024年5月12日 11:40:04 : v4ouBbv322 : RzlSZjdjZUU3SlE=[24] 報告
↑この人の、名前のところクリックしてみると、面白いコメントばかりなんだけど、なんか、酔っ払いのような感じ。
とりあえず、今のところは、非表示にはしません。

[スレ主【蒲田の富士山】による初期非表示理由]:その他(アラシや工作員コメントはスレ主が処理可能)無駄コメント
5. イワツバメ[1798] g0ODj4Njg2@DgQ 2024年5月21日 16:20:26 : xIwq9Tn63Q : bDJybG9rczk3SDY=[12] 報告
すいません!
研究繋がりで、消された発明のひとつについて載せます


6. 蒲田の富士山[2353] ipeTY4LMlXiObY5S 2024年5月23日 07:07:18 : ZFsnF4VT5k : SUlidHJWSGg4ZGc=[13] 報告

―――以下引用(Wikiから)

水銀還金
1924年9月20日に発表された水銀を金に変えることを可能にする夢の研究である。水銀は原子番号80、金は原子番号79であるから、「水素元子」(陽子)1個を除去すると金が得られるとし、水銀の「核を攪乱」したところ金が見つかったとされる。長岡は原子を改変して原子の理解を深めることを目的としていたが、水銀から金を作る研究は部分的な応用例であった。しかし、理化学研究所の広報が報道をあつめて発表し、この研究は資源の少ない日本に多大な恩恵をもたらす「錬金術」であるとセンセーショナルに報じられた。しかしその後10年研究が続けられたが成果なく、誤りであったのだが、長岡半太郎は認めることはなかった。また他の学者も物理学の重鎮に対して批判をすることはなかった。 もっとも、1937年に文化勲章を受章した際には「還金術など大したものじゃない。原子構造に対する攻究や長岡式計算法、長岡・本多効果などが学界の役に立ったのだろう」と自己評価をしている。

7. 通りすがりのG[14] ksqC6IK3gqqC6ILMRw 2024年7月12日 18:56:20 : XqDv4F7Sto : MmRVTjRicWdqMEE=[1] 報告
<△24行くらい>
ニュートンも手を染めたという錬金術を長岡もやっていたとは初耳です。
しかも原子核を変えることまで考えていたとは。
残念ながら、水銀の同位体はせべて安定で放射性壊変は起こさない。
無理やり改変させようとすれば、その要するエネルギー代は金の価値より高くつく?
-----

「2倍、3倍、4倍と増やしても全然らちが明かず、10倍、100倍、1000倍と指数関数的に増加させ、10の23乗という量のデータを超えたらスパッと性能が上がった。世界中の研究者は誰も予期していなかった。言語を操る人の脳が、少なくともこれくらいの複雑さということなのだろう」

面白いねえ。これだからねえ、学問の面白さ。フツーなら1万回学習させても効果ないなら、
諦めるけどねえ。10^23もすごい(本当に実行できるの?アボガドロ数w)。
何でだろう?
と思っているところに「言語を操る人の脳が、少なくともこれくらいの複雑さ」とくる。
------

思い返せば20年前の脳科学、皆さん口を開けば「ブレイクスルーはどこだ?!」と言われた。
ブレイクスルーは、技術面からやってきた(と思う)。スパコン「京」(10ペタ)の運用。2012年。
そして「富岳」(100ペタ)に引き継がれ、ディープラーニングだ、概念獲得だと言われるようになった。
学習回数を増やせば、現実の結果に合った学習(=一連のユニット間の結合係数)が得られる。
これがすべて。難問題も当たり前にやっちゃう(だってできちゃうんだもん!)。

次の世代はさらに10倍高速のエクサフロップスの世代。どんなことが当たり前にできちゃうのか。
おそらく脳科学も本当のブレイクスルーに到達するのではないか(と期待したい)

8. 態度の悪い兄ちゃん[64] kdSTeILMiKuCooxagr@C4YLx 2024年7月12日 20:43:32 : yhMFDrCfZG : bUF2amMvbHFoMDY=[1] 報告
>>2
蒲田の富士山さん、深遠なことを書きなさるなあ。
それについて今度コメントさせてもらいまっさ。
いつになるか分かりませんが(勉強することがたくさん、たくさん…)
9. evilspys[339] goWCloKJgoyCk4KQgpmCkw 2024年7月20日 14:16:18 : KCicQ1WpO2 : dlozQ3lXL1pHWVU=[1] 報告
『経産省もビックリ! 生成AIデータセンターと最先端半導体で日本がゲームチェンジャーになる日』
古賀茂明 TV
2024/07/20
https://www.youtube.com/watch?v=XzM1JNSenfw
10. 蒲田の富士山[2550] ipeTY4LMlXiObY5S 2024年10月20日 18:09:51 : DukK4wQOjs : Tk9kWVNmb2ZlQ3c=[37] 報告
<■79行くらい→右の▽クリックで次のコメントにジャンプ可>
機械学習にノーベル物理学賞 「源流」に日本人研究者 AIの発展 大きな貢献(東京新聞)
2024年10月20日 07時58分

https://www.tokyo-np.co.jp/article/361393?rct=national

 今年のノーベル物理学賞は、広がりを見せる人工知能(AI)の機械学習を確立した米国とカナダの研究者2人に贈られることが決まりました。機械学習の中核を担う技術は、人間の脳神経のつながりをまねた「ニューラルネットワーク」です。実は、この技術の歴史をさかのぼると、「源流」の一つは日本にありました。受賞者に先駆け、重要な成果を上げた日本人研究者たちは、AIの発展に大きく貢献しています。 (榊原智康)
 ノーベル物理学賞を受けるのは、米プリンストン大のジョン・ホップフィールド教授(91)と、カナダ・トロント大のジェフリー・ヒントン教授(76)です。
 ホップフィールド氏は1982年、脳の構造をヒントに機械学習の原型となる数理モデル「ホップフィールド・ネットワーク」を開発。断片的な記憶から全体を再現する「連想記憶」をコンピューターで実現することを可能にしました。
 ヒントン氏は85年、ホップフィールド・ネットワークを拡張した仕組みを考案。AIが大量のパターンからその特徴を学習する情報処理を可能にしました。さらに2006年には、この仕組みを基に機械学習の一種である深層学習のアルゴリズム(計算手法)を発表。これをきっかけにAIの機能は爆発的に発展し「チャットGPT」をはじめとする生成AIの普及につながりました。

◆世界のトップ
 受賞者2人に先立ち、日本で特に重要な成果を残したのは、理化学研究所栄誉研究員の甘利俊一さん(88)と、電気通信大特別栄誉教授の福島邦彦さん(88)です。
 甘利さんは1967年、現在のニューラルネットワークにつながる「確率的勾配降下法」と呼ばれる学習法を考案。72年には「連想記憶」を可能にする数理モデルを発表しました。福島さんは79年、多層からなる神経回路モデル「ネオコグニトロン」を開発しました。
 甘利さんは、連想記憶のモデルに関して「数式で書けば、ホップフィールド氏のモデルと同じ。研究者の中には『甘利−ホップフィールドのモデル』と呼ぶべきだという人もいた」と明かします。
 AI研究は50年代後半に一つの分野として確立されました。ただ、計算機の処理能力が壁になるなどし「ブーム」の後には「冬の時代」が訪れるサイクルを繰り返し、現在は2000年代半ばから続く第3次ブームの渦中にあります。甘利さんは「1960〜70年代を通じて、日本のAI研究は世界のトップを走っていた」と振り返ります。
 一方、世界的に見ると70年代は最初の冬の時代でした。そのため成果はすぐには発展につながらなかった側面があったといいます。甘利さんは「ノーベル賞が2人に贈られることは大変喜ばしい」とした上で、自身の業績については「面白いアイデアを出したが、その後のことは自分がやることではないと考えていた。今にして思えば考えが狭過ぎた。『実学』まで考慮に入れて世界をリードしなければいけなかった」と語ります。
 福島さんは大学卒業後、NHKに入局。NHK放送科学基礎研究所(現・放送技術研究所)で脳の情報処理の仕組みを探る研究に取り組みました。ネオコグニトロンは75年に発表した学習モデルを改良したものです。
 ネオコグニトロンでは、最初の層で入力された文字や図形の部分的な特徴を抽出し、さらに2層目以降では読み取る範囲を広げていきます。この作業を繰り返し、文字などのパターンを認識する仕組みです。今のAIの画像認識などに使われており、福島さんは「深層学習の父」とも呼ばれています。
 ノーベル物理学賞の選考委員会がまとめた発表資料の文中で、画像認識などに使われているニューラルネットワークは「ネオコグニトロンにルーツがある」と紹介されました。開発者として名前も記され、高い評価を受けたことに対し、福島さんは「ありがたいことです。AI分野に光があたることはいいこと」と喜びを語りました。
 AIを活用した科学研究に取り組む岡田真人・東京大教授は「今回の物理学賞は、研究実績の『波及効果』を評価した選考になったといえる。研究の源流に着目すれば甘利先生、福島先生が選ばれてもまったくおかしくなかった」と解説します。

◆警鐘
 AIは社会に大きな変革をもたらす一方で、偽の画像の氾濫や軍事転用などへの懸念も強まっています。
 甘利さんは「うまく使えばものすごい役に立つが、非常に危険な技術でもある。上手に身構えないと逆にAIに使われ、人間が思考力を失いかねない。人類社会は、AIをどう使っていくのかを考える非常に大事な時期にきている」と訴えます。
 福島さんは「生物の脳に学ぼうという立場で研究を進めてきた。現在のAIは、その方向から離れていく感じがある」と指摘。この方向がさらに進めば、制御できなくなる恐れが強まるとし「脳に学ぶ立場から研究が進んでいってほしい」と話しました。

<あまり・しゅんいち> 1936年東京生まれ。東京大工学部卒、同大大学院数物系研究科博士課程修了。工学博士。東大教授などを経て2003年、理化学研究所(理研)脳科学総合研究センター長。現在は理研栄誉研究員、東大名誉教授、帝京大特任教授。12年文化功労者、19年文化勲章。

<ふくしま・くにひこ> 1936年台湾生まれ。京都大工学部を卒業後、58年にNHK入局、放送科学基礎研究所などで研究に取り組み、89年大阪大教授、99年電気通信大教授。現在はファジィシステム研究所特別研究員、電通大特別栄誉教授。工学博士。21年米フランクリン協会・バウワー賞を受賞。

▲上へ      ★阿修羅♪ > 雑談・Story42掲示板 次へ  前へ


  拍手はせず、拍手一覧を見る

フォローアップ:


★事前登録無しでコメント可能。今すぐ反映 通常 |動画・ツイッター等 |htmltag可(熟練者向)
タグCheck |タグに'だけを使っている場合のcheck |checkしない)(各説明

←ペンネーム新規登録ならチェック)
↓ペンネーム(2023/11/26から必須)

↓パスワード(必須)

(ペンネームとパスワードは初回使用で記録、次回以降にチェック。パスワードはメモすべし。)
↓画像認証
( 上画像文字を入力)
ルール確認&失敗対策
画像の URL (任意):
最新投稿・コメント全文リスト  コメント投稿はメルマガで即時配信  スレ建て依頼スレ

▲上へ      ★阿修羅♪ > 雑談・Story42掲示板 次へ  前へ

★阿修羅♪ http://www.asyura2.com/ since 1995
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。
 
▲上へ       
★阿修羅♪  
雑談・Story42掲示板  
次へ