★阿修羅♪ > リバイバル4 > 122.html
 ★阿修羅♪
▲コメTop ▼コメBtm 次へ 前へ
AI には客観的で公正な判断はできない
http://www.asyura2.com/18/revival4/msg/122.html
投稿者 中川隆 日時 2018 年 10 月 19 日 18:09:34: 3bF/xW6Ehzs4I koaQ7Jey
 


AI には客観的で公正な判断はできない

MSのAIはたった一日で悪い言葉を覚えて中止になった

画像引用:米MSの人工知能「Tay」が人種差別発言で暴走していたころ、日本MSの人工知能「りんな」は…… - ねとらぼhttp://image.itmedia.co.jp/nl/articles/1603/27/mofigrin001.jpg


アマゾンAIと日本の医学部大の発想が同じ

鳴り物入りで始まったアマゾンのAI採用が、期待と違う結果になりあっけなく中止になった。

原因はAIが女性を採用しないようにしたというのだが、AIは客観的で公正な判断で採用したはずでした。

アマゾンは過去10年間に送られてきた技術職履歴書などのデータをAIに学習させ、2014年から2017年まで使用していた。


技術職の大半は男性だったので、AIは最初から女性をなるべく採用しない事を学習し、男性を優先するようになった。

応募者が女性だったり女子大出身だと自動的に減点し、男性より合格のハードルを高くした。

AIは男性の方が技術者に向いていると思い、女性を外すことで効率よく優秀な技術者を採用できると思い込んだ。


どこかで聞いたような話であり、最近日本で問題になっている医学部の女子への減点と同じでした。

医学部大の言い分では女性は結婚や出産でやめる人が多いので、男性医師を多くしておく必要があった。

アマゾンのAIと同じで「女性は向いていないから最初から減点しておこう」という発想でした。

AIが「悪い言葉」を学習

アマゾンはデータを修正したが、AIが今後も自己学習によってバイアス(偏り)を持つ可能性は否定できないとしている。

このようなことは男女だけでなく多くのグループ分けで起こりえるし、効率的にやろうとするほどバイアスも大きくなる。

例えばある調査では「親の収入が多いほど成績が良く名門大学に入学している」というデータがある。


それなら全員平等ではなく、最初から親が金持ちの受験者を優遇したほうが、効率よく優れた学生を獲得できる。

人種間でも年齢でも非行歴でも同じようなデータはあるだろうし、例えば交通違反についてもいえる。

交通違反を複数回する人は今後も何度となく繰り返すし、それならすぐ免許を没収しようとAIは考えるかもしれない。


MSは2015年にツイッター上で一般人と会話し自己学習するAI のテストを実施しました。

AIはわずか一日で悪い言葉や暴言を学習し、独裁政治は正しいなどと言い始めたので翌日には中止された。

これらのケースは人工知能がいかにデータを教える人間に影響されやすいかを示している。

教える人間が少しでも偏ったことを教えれば、AIはそれを増幅して自己学習し、どんどん偏りが大きくなる。


AIが人間のように学習していくというアイディアは素晴らしいものに思えたが、現実はそれほどうまく行っていません。
http://www.thutmosev.com/archives/77879048.html  

  拍手はせず、拍手一覧を見る

コメント
1. 中川隆[-13368] koaQ7Jey 2018年11月02日 07:43:54 : b5JdkWvGxs : DbsSfawrpEw[-19768] 報告
トレンド追随コンピューター主導型ヘッジファンド、市場混乱で「惨敗」
Suzy Waite、Nishant Kumar 2018年10月27日 4:02 JST
https://www.bloomberg.co.jp/news/articles/2018-11-01/PHIUNM6S972C01

ブルートレンドやキャンタブ、月初から19日まで4−9%の下落


資産価格の急速な反転読めず、金利上昇と株価下落でダブルパンチ

ボラティリティーの急騰で、相場の大きな流れに追随するコンピューター主導型のモデルを活用するヘッジファンドが大きな打撃を受けている。

  数理モデルが明確または顕著なトレンドを示す世界金融危機などの市場の急落場面では、商品投資顧問(CTA)として知られるファンドは、これまで投資家を守ってくれることが多かった。だが、今回は資産価格の急速な反転を読むことができず、レダ・ブラガ氏のブルートレンド・ヘッジファンド、GAMホールディングのキャンタブ部門、マン・グループのAHL部門は10月にいずれも大きな損失を被っている。

  88億フラン(約9850億円)を運用するミラボー・アセット・マネジメントのヘッジファンド責任者、バカール・ズベリ氏は「極めて少数の例外を除き、ほぼ全ての戦略が惨敗だ」と指摘し、「CTAは金利上昇と株価下落のダブルパンチを受けている」と話す。「唯一の出口は撤退で、今や全員がそうしようとしている。CTAのモデルがそうするよう指示しているからだ」と述べた。

  企業業績の減速やイタリアの政治混乱、英国の欧州連合(EU)離脱を巡る混乱の中で、コンピューター主導型のヘッジファンドは1−9月の成績がマイナス1.6%と、通年で設立以来最悪を記録するペースだった。

  ユーリカヘッジは10月の成績を公表していないが、事情に詳しい関係者が確認したところでは、ブルートレンド・ヘッジファンド、キャンタブ・キャピタル・パートナーズ・クオンティタティブ・ファンド・アリスタルコス、AHLダイバーシファイド・ファンドは月初から19日までの下げ幅が4%弱−9%強に達し、年初来の下げが2桁に上った。

  各社ともコメントを控えた。

Under Pressure

Poor gains and cheaper alternatives are making investors pull money from CTAs

Source: Eurekahedge


原題:Trend Followers Stung in Hedge Fund ‘Bloodbath’ as Rout Deepens(抜粋)

2. 中川隆[-13634] koaQ7Jey 2018年11月23日 14:15:04 : b5JdkWvGxs : DbsSfawrpEw[-21040] 報告

2018年11月23日
自動運転バス 各地で始まるも評判は散々


いつかはちゃんと走れるでしょうが近い将来ではなさそう


画像引用:https://japan.cnet.com/article/35120410/

高い期待と低い評価

どうも自動運転は高すぎる期待が先行して現実は追いつかないことが多いようです。

世界初の自動運転車は2015年に登場したテスラのオートパイロットで、その後「自動運転ではない」と言い直した。

テスラは自動運転状態で何件も事故を起こしていて、最初の頃から技術的に進展していない。




つまりドライバーは常に手を添えている必要があり、車は白線の間を走り車間距離を維持するがそれだけの機能しかない。

横から車線変更してきた車は探知できず、白線が消えていると道路外に飛び出したり分離帯に衝突します。

テスラが走行可能なのは高速道路上だけで、一般道路での走行は認められていない。


ウーバーは自動運転を開発していたが、一般道で横断する自転車(降りて押していた)を探知できず衝突した。

このように現在市販されたり路上で試験されている自動運転は、実用的には使い物にならないレベルです。

だが運転者が居眠りや失神して運転不能になった場合には、自動運転によって事故を回避できるかも知れません。


現実はその程度でありとても人間の運転を変わることはできません。

自動運転が既に実用化されている場所があり、それはアマゾンの倉庫などで走行するロボットたちです。

倉庫には歩行者も他の車両もなく完全にコントロールできるので、自動運転にまかせても衝突しない。

自動運転バスの低い評価

日本や外国でバスの自動運転が始まっていて、メディアの人が自分で乗ってみた感想などを記事にしている。

自動運転バスは自動で運転することも可能だが、手動で運転することもできるようになっている。

なぜかというと完全な自動運転ではスムーズに走行できないため、運転者が運転したほうがうまいからです。


例えば道路わきに歩行者が立っていた場合、AIはその人が飛び出すのか歩いているだけか、それとも電柱や看板かを理解できない。

絶対に歩行者を回避できるようにすれば、歩行者の横を通るたびに徐行か停止しなくてはならない。

あるいは前方に車両が止まっている場合、待てば良いのか反対車線に出て前に出るべきかという判断ができない。


もっとダメなのは横道から出てくる車両や自転車などを探知できない点で、構造上横方向から接近するものを認識できない。

バイクや自転車がわきをかすめてチョロチョロ前に出ると、自動運転ではお手上げになる。

そこで自動運転バスが止まると人間の運転手が交代するのだが、最初から人間が運転したほうが早い。


今の時点ではせいぜいこんなもので、近い将来自動運転で運転手が失業するような気配はまったくない。

自動運転で近い将来可能なのはせいぜい、人間が眠った時に一時運転を交代するくらいでしょう。

あるいは高速道路を走行する時だけAIが運転し、一般道路では人間が運転するなども考えられます。


これらは人間の運転手の疲労軽減には役立ちそうです。
http://www.thutmosev.com/archives/78223351.html

3. 中川隆[-12756] koaQ7Jey 2019年1月24日 20:29:26 : b5JdkWvGxs : DbsSfawrpEw[-22231] 報告
AI導入で変貌する未来 せっかくの技術革新が大量失業を生む皮肉
社会2019年1月24日
https://www.chosyu-journal.jp/shakai/10707

誰の為の技術か? 使い方によっては展望にも

 世界的規模でAI(人口知能)をめぐる技術革新がすすみ、今後の生活や仕事環境を激変させる流れが加速している。AIをめぐっては「人手不足が解消できる」「生活が便利になる」という宣伝の一方で、「大失業時代が到来する」との懸念も拡大している。現実に日本の大手四銀行(みずほFG、三菱UFJFG、三井住友FG、りそなHD)は3万5000人規模の業務削減計画を開始した。AIの本格導入により世界で3億7500万人が失職し、日本では2700万人が職を失うと予測する研究機関もある。そもそもAIとは何か、さらにAI導入が何をもたらし、社会全体にどのような影響を及ぼすのか見てみた。

 「AI」といえば、プロ棋士に勝利した将棋ソフト「ポナンザ」や囲碁ソフト「アルファ碁」、クイズ王に勝利した「ワトソン」などは、メディアで話題となった。人間の動きを見ながら仕草を変えて成長するロボット犬「アイボ」、スマートフォンに搭載される「グーグルアシスタント」や「Siri」といったAIスピーカー…など実用化されたものもある。さらに近年は音声操作が可能な炊飯器、コーヒーメーカー、照明、ユーザーが好む服の洗い方を学習していく洗濯機などAIを活用した「AI家電」の種類も増えた。AIロボットが接客する「変なホテル」、AIカメラやスマートフォン決済を使う「無人コンビニ」もあらわれている。

 最近のAIは一昔前の産業ロボットのように単純作業をくり返すだけではない。チェス、将棋、囲碁など限定した分野では世界最高峰の棋士を打ち負かすレベルに達した。「もう何年か経てば人間をこえるAIが出てくるのでは?」「人間がAIに征服されてしまうのではないか?」という憶測や不安まで飛び交うようになった。

人員削減進む大手銀行

 こうしたなかAI技術の進化で仕事が奪われる職種が顕在化している。もっとも影響が大きいのは、これまで「勝ち組」「エリートの花形」と目されてきた金融業界である。銀行員の給与水準が高いこともあり、真っ先に人減らしのターゲットになっている。大手銀行は2016年頃から既存業務のデジタル化を本格化させた。大手四銀行は昨年段階で次のような人員削減計画を明らかにしている。

【三菱UFJFG】
 2023年度までに9500人分の業務量を削減し、6000人を自然減。全516店のうち、23年度末までに70〜100店をセルフ店に切り替え。
【三井住友FG】
 2019年度までに4000人分の業務量を削減し、基幹職は2020年度までに2000人分削減。全430店舗を次世代型店舗化。
【みずほFG】
 2026年度までに1万9000人削減。500拠点のうち100拠点を2024年度までに削減。
【りそなHD】
 2019年度までに3000人削減。2021年度末までに15年度比で業務量半減。

 こうして大手四銀行全体で3万5000人も減らすことができるのは、RPA(ロボティック・プロセス・オートメーション)と呼ばれるソフトウェアロボットの活用が本格化しているからだ。RPAは人がキーボードやマウスでおこなうパソコン作業の内容をあらかじめロボットに記憶させ、その作業を再現する自動化システムで、主としてデータ入力や転記などホワイトカラーの事務作業代替を目指している。ただRPAはAI導入の初歩的段階に位置し、まだ本格導入の域には達していない。

 そのため金融業界ではRPAとAIを組みあわせ、高度業務を自動化する研究や実証実験が進行している。すでに過去のデータ分析をコンピューターに担わせ、会話は米IBMの音声認識システム「ワトソン」などを導入し、「融資サービス」「接客業務」「問い合わせ対応」「株価予測などの情報提供」「ロボットアドバイザー」「不正防止」など金融業務全般をAIに代替させる準備が進んでいる。

 日本の先を行くアメリカでAI化の影響が顕著にあらわれている。米ゴールドマン・サックスのニューヨーク本社・現物株式部門には2000年当時、約600人のトレーダーがおり、顧客の注文を受けて株式を売買していた。ところが2017年に株式トレーダーはわずか2人に減った。トレーダー業務は、約200人のITエンジニアが運用するロボットトレーダーに変わってしまった。

 こうしたなか米マッキンゼー国際研究所は2017年に「2030年までにロボットの利用や自動化で最大3億7500万人が異なる業種への転換を迫られる」と予測している。日本については2700万人が転職を強いられると指摘し、約5900万人の労働人口のうち約半数(46%)が失職すると分析している。OECD(経済協力開発機構)も昨年、自動化で消える仕事の割合は14%と指摘し、32カ国でその対象が6600万人に及ぶことを明らかにした。

 経済産業省はAI導入により2015年度から2030年度の15年間で、735万人の雇用が消失すると指摘した。サービス業は17万人増加すると予測したが、上流工程(経営企画等)=136万人減、製造・調達(製造ライン等)=262万人減、営業販売=124万人減、IT業務=3万人減、バックオフィス(経理等)=145万人減、その他(建設作業員等)=82万人減、というように全産業に大きな影響が出ることを予測している。

 オックスフォード大学との共同研究で「10〜20年後に49%の職業がAIやロボットで代替可能になる」と結論づけた野村総研(NRI)は、AIへの代替可能な職業として100種を指摘した。その主な職種を見ると、これまで自動化が進んできた自動車組み立て工などの製造業に加え、一般事務員、医療事務員、行政事務員など事務・営業職が目立っている【表参照】。

      

 それは産業ロボット導入で非正規雇用化が進んだブルーカラーに加え、今度はホワイトカラーまでAI導入で駆逐していく段階に入ったことを示している。

代替できない創造性

 しかしAIは人間が担っていた業務をすべて成り代わって遂行する機能は持ち得ていない。AIはあくまで大量に蓄積されたデータのなかから、あらかじめ設定された目的にそって適切と思われる答えを探す「道具」にすぎないからだ。例えばグーグルの音声アシスタントを見ても、言葉の意味を理解して応答しているわけではない。話しかけられた声を0・03秒の音の粒に分割し、前後のつながりから何を話しているのかを判断し、応答例として無数に蓄積されたなかからもっとも可能性が高い文面をAIが短時間で探し出し、返答しているだけだ。AI自体には言語を理解する能力も、自分の行動が社会にどのような影響を及ぼすか判断する能力はない。それは「変なホテル」の各部屋に設置されたアシスタントロボが宿泊客のいびきに反応し、夜中中、「すみません、リクエストが聞きとれませんでした」と話しかけ続け、「眠れなかった」と客が激怒したケースを見ても明らかである。

 AIはルールや膨大なデータに基づいて諸関係を覚え、記憶や専門知識を引き出し、今後の展開を予測する能力では人間を上回る段階に達している。しかし主体性や意志、感情があるわけではない。そのため人間があたりまえにおこなう「なぜ?」という問いを抱いたり、喜びや悲しみを感じることはない。ひらめきから独創的な企画を生み出したり、創造力を発揮することはできない。いくらAI技術が発達しても、医療・福祉・介護・教育分野など人間性や創造性が求められる分野の仕事は代替できない。

 一部メディアやバラエティ番組で「人工知能vs人間」「AIが人間をこえる」と煽る動きもあるが、AIに詳しい研究者やIT関係者ほど「AIが人間の能力をいつ超えるかという問いを立てること自体が無意味」「今のAIは人間にとってのツール」「人工知能とは“知能”の再現であって“人間”の再現ではない」と指摘している。

AI技術の飛躍的進化

 AIの研究は70年以上の歴史がある。おおまかな流れを見ると、イギリスを中心にした1700年代後半の第一次産業革命では蒸気や石炭を動力源とする蒸気機関が普及し軽工業や鉄道が発達し、アメリカとドイツを中心にした1800年代後半の第二次産業革命では電力やモーター、内燃機関の普及で重工業が発展した。この工業の発展を基礎にして1900年代半ばにパソコンやインターネットが登場し、自動化を促す第三次産業革命へと進んだ。

 AIはこのパソコン登場と同時に研究が始まり、1950年代には欧米を中心とした第一次AIブームが起きている。AI研究は人間の脳そのものに似せた機械をつくる立場(強いAI)と、人間がおこなう作業の一部を機械に代替させる立場(弱いAI)の二種類ある。しかし人間の脳の仕組み自体がまだ解明できていないため、歴史的に研究が進んできたのは「弱いAI」の方だ。

 第一次AIブームでは、パズルやゲーム、迷路などの知的遊戯をAIに解かせる研究が進んだ。それは「論理(ルールや手順による推論)」をコンピューターに計算方式(アルゴリズム)として覚え込ませることで、人間並みの賢さを目指す試みだった。

 第二次AIブームが起きたのは1980年代だった。それはAIに専門知識を教え込み、応用する研究だった。医学知識を教え込んだ医師のAI、法律知識を覚え込ませた弁護士のAI、などの研究が進んだ。この技術は「エキスパート・システム」と呼ばれ、患者に「はい」「いいえ」で答える質問をくり返し、それをもとに診断するAIロボットも登場した。しかし状況が変化しルールが変わるたびに設定を変えなければならないうえ、想定外の言葉に対応することはできない。画像認識能力も低かった。そのため広範囲な実用化には至らなかった。

 第三次AIブームの発端は2012年だった。コンピューターの画像認識コンテストでカナダ・トロント大学のチームが「ディープラーニング」(深層学習)と呼ばれる技術を使い、それまでとは段階を画した高精度の認識能力を実現したことがきっかけとなった。

 このディープラーニングは機械学習の発展版で、近年のAIの核になる技術である。機械学習はコンピューターに大量のデータを読み込ませ、データの規則性や特徴をコンピューター自身に見つけさせる方法だ。ディープラーニングは脳の認知メカニズムと同様の仕組み(ニューラルネットワーク)をコンピューター内に再現した技術という。脳の神経細胞は複数の神経細胞から受けとったデータをもとに、次の神経細胞へデータを伝えるかを決めている。よく使う神経細胞同士のつながりは太くなってデータが伝わりやすくなる。あまり使わないつながりは細くなる。その構造に似せてデータを認識する入力層、入力層と出力層を結ぶ中間層の層を増やして細分化し、より複雑で細かい特徴を正確かつ素早く認識しやすくする技術である。

 古くから機械学習の技術はあったが、データ取得能力やコンピューターの性能が追いついていなかった。2000年代に入ってコンピューターの高速化(半導体の性能向上)が進んだこと、インターネットを介したデータ取得能力が飛躍的に向上したことが、AIの飛躍的進化を実現した。こうして現在のAIは「休むことなく正確なデータ処理をおこなう能力」「データを収集して学習し永遠に進化し続ける能力」「一度に多数の人とコミュニケーションをとる能力」「AI機器同士で情報交換する能力」を備えている。2000年代以後はAIの実用化やIoT(モノのインターネット)の利用が広がる「第四次産業革命」に入っており、めざましい技術革新が進んでいる。

最も危険な軍事利用

 しかし本来は歓迎すべき技術の進歩が現在の社会においては、大量失業時代を引き寄せたり、国民生活を脅かすマイナス要素として作用する姿が浮き彫りになっている。すでに動き出している四大銀行を軸にしたホワイトカラーの大量リストラは大銀行経営陣には恩恵をもたらすが、数万人の銀行員や家族、地域全体に甚大な影響を及ぼすことになる。AIの実用化が進んで、銀行以外の産業でも人減らしが本格化すれば、今以上に消費購買力が落ち込み、格差が拡大するのは時間の問題である。

 また安倍政府が具体化を進める「未来投資戦略」は、行政サービスや公営施設管理にAIを導入することが重点施策の一つになっている。それは行政職員の人減らしに直結するが、行政施策遂行の上でも都合のいい体制となる。行政窓口やデータ管理をAIに担当させれば24時間作業し続けることが可能になる。感情がないため「心の病」になったり、忖度することはなくなり、税金徴収業務や差し押さえなど無慈悲な対応に拍車がかかるのは必至である。

 そしてもっとも危険な使い道は軍事兵器への応用である。AIは自分の意志がないうえに疲れず、恐怖感もない。一旦攻撃の命令を下せば、どうすればよりダメージを与えられるかを学習し攻撃力を高め続ける極めて厄介な存在となる。米軍がAIを搭載した殺人ドローンや攻撃型潜水艦、陸軍に変わる地上歩行ロボットの研究を急いでいる。政府は防衛大綱で無人爆撃機や無人潜水艦の導入を計画し、防衛省は行政文書管理やサイバー攻撃対処からAIを導入する動きを見せている。

 AIの技術革新は本来、国民生活向上のために活用できるなら社会に大きな恩恵をもたらす内容を持っている。ホワイトカラーの業務を低コストで実現できるなら、給与水準を下げたり、失業者として放り出すのではなく、長時間労働を軽減したり、行政が機能して、介護や教育現場の人手不足を解消するための改善策をとることも可能だ。しかし大資本の利益追求のためにしかAI技術が使われないなら、どれだけ技術革新が進行しても、大失業や社会の荒廃をもたらし、挙げ句の果ては大量殺人兵器を生み出す破滅的な技術に転化するしかない資本主義社会の矛盾も浮き彫りにしている。革新的な発展を遂げているAI技術も、いったいだれが何のために使うのかが大きな焦点になっている。
https://www.chosyu-journal.jp/shakai/10707

4. 中川隆[-12628] koaQ7Jey 2019年1月29日 09:21:08 : b5JdkWvGxs : DbsSfawrpEw[-22231] 報告


2019年01月29日
AIブームの始まりと終わり 「人工知能」に知能はなかった


AIは「障害物の前で止まる」のようにプログラミングされた事を実行しているので、自ら考えてはいない


AIブームは沈静化しはじめている

AIがブームになったのは今から数年前で、きっかけは自動運転車だった気がします。

2015年にテスラがオートパイロットを開始し、世界初の自動運転車として大きな話題になった。

すぐにでも自動運転車が世界を走り回ると予想されたが、4年経った今もほとんど進展しない。

テスラのオートパイロットは複数の衝突防止装置を組み合わせて、一時的に手を離せるものに過ぎなかったがイメージだけが独り歩きした。

たとえば自動運転では行き先を告げれば寝ていても自動車が走ってくれるとか、自動で車庫入れするなどの誤解が広まった。

現在自動車メーカーがテストしている自動運転車は全て、車線に沿って走ったり障害物の手前で止まったり迂回する機能しかない。


人間のように考えたり判断することはできないので、近い将来に人々が考えているような自動運転車は実現しない。

できるとすれば「ゆりかもめ」のように定められたコースを巡回し、障害物があれば停止や迂回しながら進むようなものです。

出かけるたびに行き先が変わり、目的地すら決めずに出かける行動パターンにはとても対応できません。


AIへの過剰な期待は膨らみ、人間と会話できるスマートスピーカーが登場しました。

確かに便利だし面白い商品なのだが、これも期待が大きすぎて現実との乖離が大きい。

スマートスピーカーは人間のように考えているのではなく、決まったパターンに沿って機械学習しているだけです。

「人工知能」に知能はなかった

従来のコンピュータはあらかじめプログラムされた内容に基づいて、かならず決まった挙動を見せました。

ゲームの同じ場面では必ず同じ敵が登場し、同じパターンで攻撃してくるようなことでした。

AIはちょっと高度になり、プレイヤーの行動パターンを学習して毎回パターンを変えてきます。


プレイヤーの新しいデータが増えると、その裏をかくようにモンスターは攻撃パターンを変えたりします。

新たなデータ取得によるパターン変化が、あたかもコンピュータに「知能や知性」があるかのような誤解を与えます。

現在のAIは結局、新しいデータに対応してパターンを変えているだけで、生物のような知能や知性はないです。


将棋でプロ棋士に勝つAI将棋があり、計算能力の速さを生かして数億パターンの展開を一瞬で分析し、最も勝てそうな手を打ってきます。

これもパターン化されたプログラムだが、対戦データによって行動を変化させるので知能があるように見えている。

予めプログラムされた通りに行動しているだけなので、AIに同じデータを与えると必ず同じ反応をする筈です。


これが人々から期待されているAIのイメージと現実のAIの落差に繋がり、例えば自動運転は「ガードレールを探知したら避ける」ような単純な動作しかできない。

「前方に障害物を探知したら減速、停止」「信号の色が赤になったら停止」などプログラムされた通りに単純な動作を繰り返しているだけです。

スマートスピーカーに単純で明快な命令は出来るが、単純すぎて人間の話し相手にはならない。


ゼロから何かを思いついたり、複雑なことを同時に考えたり、無関係なことを関連付けて連想するのは、今のところ人間にしかできません。
http://www.thutmosev.com/archives/78859919.html#more

5. 中川隆[-12241] koaQ7Jey 2019年2月12日 14:06:03 : b5JdkWvGxs : DbsSfawrpEw[-22234] 報告


2019年2月12日
深刻化する「deep fake」ビデオの脅威
斎藤 彰(ジャーナリスト、元読売新聞アメリカ総局長)
http://wedge.ismedia.jp/articles/-/15330

 AI技術の著しい進歩により、最近アメリカで本物そっくりの偽ビデオやオーディオが次々に登場、深刻な問題となりつつある。今後その精度がさらに一段と向上するにつれて、政治目的などに悪用され社会混乱の原因にもなりかねず、米議会でも被害を最小限に食い止めるための法案措置の動きまで出始めている。

 問題となってきたAI技術は「ディープ・フェイク(deep fake)」と呼ばれ、AIが可能にした「ディープラーニング」と「フェイク」をミックスした新造語。真偽をただちにチェックし注意を喚起できる従来の「フェイク・ニュース」などとは異なり、本物との区別がほとんど不可能なほど巧妙に造られている点に特徴がある。


(BrianAJackson/Gettyimages)

 その最たるものが、いわゆる「ディープ・フェイク」ビデオの存在だ。ある人物の顔の形、しわ、目鼻、まゆ、唇の動きなどをコンピューター・グラフィックで微細にわたるまでスキャン、そのデータを別の人物の顔にかぶせ、異なる部分を入念に修正した上で再現する。顔つき、表情のみならず、発声、発音もオーディオ・データのコンピューター分析によって細かく記録、それを唇の動きに合わせて再生させるため、素人目には容易に本人と間違いやすくなる。

 その一例として、アメリカで大きな話題として取り上げられたのは、昨年4月公開された、オバマ大統領があたかも実際に演説しているかのように見せかけたビデオ作品だった。

 新興ネット・メディアとして最近躍進著しい「BuzzFeed」がワシントン州立大学コンピューター・サイエンス技術チームの協力を得てハリウッドの映画製作会社と共同で作り上げたもので、とくにこの作品の中で“オバマ氏”がトランプ大統領のことを「とんでもない間抜け(complete dipshit)」とののしっている部分があり、またたくまにフェイスブックなどを通じて全米に画像が広がり話題騒然となった。

 もちろん、現実に前大統領が現職大統領をこのような下品な言葉でけなすことなどありえず、これを製作、公表した「BuzzFeed」最高経営者も、作品が最初から贋作であることを断っているとした上で「今後、AI技術が超スピードで一層発達し、この種のdeep fake videoが出回ることによって社会混乱が起こりうることを警告したかった」と、その意図について語っている。

 今後、こうした「ディープ・フェイク・ビデオ」が悪用されかねないケースとして米メディアで指摘されているのが、わいせつなポルノ・ビデオの主人公として本物に見せかけた有名人や特定の政治家などを登場させ、品位を貶める、敵対国の選挙に介入し“好ましからざる候補”の偽造演説ビデオを流布するなど、SNSを駆使したかく乱工作だ。さらには、最悪のシナリオの一例として、“トランプ大統領”が「中国を標的にした核ミサイル発射の最終決定を下した」とする「重要演説」動画をSNSで流すといったケースまで議論に上がっている。
 
 すでに実際に、ハリウッド女優界を代表するグラマー美女として知られるスカーレット・ヨハンソンさんの顔がポルノ・ビデオのセックス・シーンの女性にはめこまれるといった被害が報告されているほか、ヨハンソンさん以外でも、本人のまったく知らないところで、別人が演じるわいせつビデオに登場させられていた何件もの類似ケースが出没しているという。
 
 こうしたディープ・フェイク・ビデオの恐怖は、たんなるうわさや偽宣伝チラシ、各種アングラ情報紙(誌)などとは異なり、視覚と聴覚に訴えることによってバーチャル・リアリティの動画を受け手にアピール、信じ込ませることができるだけでなく、それを瞬時に時空を超えて世界中に拡散できる点にある。場合によっては近い将来、国と国の戦争を引き起こし、一方の国の戦況を有利な方向に誘導するといった要因にさえなりうる、と指摘する専門家もいる。

 このため米議会では、「オバマ演説」ビデオで物議をかもした昨年以来、その潜在的脅威と対策について真剣な議論が戦わされてきた。

 最初に問題提起して注目を集めたのが、下院情報特別委員会のアダム・シフ議員ら3人の民主党有力議員だった。シフ議員らは昨年9月13日、本会議で、「ディープ・フェイク・ビデオは個人の信用を失墜させ、脅迫の材料として悪用されるだけでなく、(ロシアなど)外国敵対勢力が悪用し、わが国の国家安全保障上の脅威にもなりうる」と重大警告するとともに、ダニエル・コーツ国家情報長官に対し、とくに外国情報機関が展開しようとしている欺瞞工作の実態と対策について、調査報告の議会提出を求めた特別書簡を送ったことを明らかにした。

 入手した書簡コピーによると、「ディープ・フェイク技術の恐るべき性能と迅速な進歩が今後わが国にもたらしうる甚大な影響にかんがみ、世界各国におけるその現状と将来的影響について把握しておく必要がある」と指摘、具体的に
1.諸外国政府、その国家情報機関および工作員がディープ・フェイク技術を駆使してどのように具体的にわが国国家安全保障上の利益に影響をあたえうるかについての評価。
2.すでに現在にいたるまで、外国政府および工作員が実際にその技術をわが国に対してどのように行使したかの詳細記述。
3.わが政府あるいは民間企業がディープ・フェイク使用の早期発見または未然防止のために取りうる技術的対抗措置の説明。
4.ディープ・フェイクの脅威に対処するために今後、米国各情報機関が取り組むべき、予算措置も含めた努力目標に触れた議会宛て勧告―など7項目について言及した報告書を提出するよう求めた。

 さらに今年に入り上院でも、マルコ・ルビオ議員(共和)ら情報特別委員会有力メンバーらも、この問題についてあいついで警告を発してきた。

 ルビオ議員は先月、米議会のネット・メディア「The Hill」とのインタビューで「わが国の敵対国(複数)はすでにアメリカ国内に対立要因となるような材料をばらまくためにフェイク画像を使用し始めている。


選挙日に投票箱が盗まれようとしているシーンや、政治指導者が対立候補を卑猥な言葉で非難中傷する贋作ビデオが歯止めもなく流出するようなことになった場合のことを想定してみる必要がある」と語り、また同委員会副委員長のマーク・ワーナー議員(民主)も「ディープ・フェイク技術がすでに世の中に出回り始めた以上、今からその危険性を警告しても遅すぎるくらいだ。われわれはもはや防戦に回るしかない」と危機感を募らせた。

 そして、本物と贋作の区別を明確化するための「IDコード」表示義務付けなどを織り込んだディープ・フェイク法案を近く上程する意向を示した。

 ただ、その一方でディープ・フェイク技術は猛スピードで進歩を遂げており、ビデオのひとつひとつについて真贋の識別をすることはますます困難になりつつあるという。

 特に今日、インターネット文化は世界中に拡散の一途をたどっており、たとえば、YouTubeには毎分400時間分の各種ビデオがアップされ、Twitter上では毎分35万回のツイートが掲載されているだけに、アメリカ1国だけでその全容を監視したり、規制したりすることは事実上、不可能に近い状態だ。

フェイク・コンテンツの急速な拡散の背景

 この点に関連して、専門家の一人、ダートマス・カレッジ・コンピューター・サイエンス学部のハニー・ファリド教授は、「The Hill」とのインタビューで次のように総括している。

 「フェイク・コンテンツの急速な拡散の背景には、それを可能とする多くの力が一気に集約され嵐を引き起こしたという側面がある。すなわち、われわれはすでに、偽情報を作り出す能力を手に入れ、それを容易に広範囲に拡散させ、その上に、ばらまかれた情報をためらいもなく鵜呑みにしてしまう公衆がもろ手を広げて待っている状況があるということだ。この世界的風潮にいかに歯止めをかけるかについては、政府や民間企業だけの責任ではなく、市民一人一人がオンライン情報を何であれ受け入れる愚かさ、騙されやすさから目覚める必要がある。すなわち、われわれ全員がディープ・フェイク現象の一部分を構成しているということだ」

 欧米では古くから、「Seeing is Believing(見ることは信じること=百聞は一見にしかず)」が格言のように伝えられてきた。その語源はラテン語「Videre est Credere」に由来する。そして、今日のビデオVideoはまさにこの「Videre」から派生したものだ。

 しかし、今後Videoが最新のAI技術の登場により、本物とは識別がつけにくいフェイクのまま世の中に出回ることになるとすれば……「Seeing is Believing」という言い伝え自体が、死語となる日もそう遠くないかもしれない。

 こうした状況を踏まえ、米議会とくに民主党議員の間では早くも、来年11月の米大統領選への警戒感が強まりつつある。2016年米大統領選挙では、ロシア情報機関の巧妙な介入により、投票日直前になって民主党のヒラリー・クリントン候補にとって不利なメールやがSNSなどを通じ全米に流布され、それが結果的にトランプ氏当選につながったとされる。しかし、2020年選挙では、ロシアが最新のディープ・フェイク技術を駆使して再び介入してくることは必至とみられているからだ。

 この点について、マーク・ワーナー議員は昨年12月初め、テキサス州オースチンで開催された安全保障問題特別セミナーで「ロシアは2020年米大統領選挙に向けて、従来の欺瞞情報活動と新たに登場してきたディープ・フェイク・ビデオを組み合わせた対米工作に乗り出すとみられる。場合によっては、投票日が近づくにつれて精巧につくられた偽ビデオをSNSを通じて次々に流し、選挙を混乱状態に追い込む可能性も否定できない」と警告している。

 そしてやがて、こうしたディープ・フェイクの脅威が、日本など各国の政界や財界にも拡大しない保証はどこにもない。

6. 中川隆[-11073] koaQ7Jey 2019年10月03日 07:50:16 : b5JdkWvGxs : dGhQLjRSQk5RSlE=[1749] 報告


2019年10月3日
3年後に意識の宿ったAIが資金を運用する
東大准教授が語るAI投資の現代と未来
http://wedge.ismedia.jp/articles/-/17519


 19歳でIPA(独立行政法人情報処理推進機構)の未踏スーパークリエータに認定された大澤昇平氏。東京大学・松尾豊研究室で人工知能とWebに関する博士号を取得後に、IBM東京基礎研究所でブロックチェーンの研究開発に参画。現在は東京大学特任准教授、株式会社Daisy代表取締役CEOを兼任している。Daisyは開発者が協力してAIを作るためのプラットフォームで、大澤氏の会社はこのAIを使って投資ファンドの試験運用中である。AIと投資の最前線とは、AIは機関投資家に勝つことができるのか?

電卓、炊飯器、洗濯機も実はAIだった!

Q 世の中AIブームで、デジカメもエアコンもAI搭載を宣言しています。AIには自己学習してプログラムを進化させるイメージがありますが、実際どこまで実用化が進んでいますか?

大澤 AIの定義は広範囲にわたって「弱いAI」と「強いAI」という分類があります。弱いAIとは人間がやっていた作業を代行できる機能です。例えば電卓も人間の代わりに計算する機械なのでAIと言えます。電子計算機=人工知能とも言えます。つまりマイコンチップが入っている機械は全てAI搭載と言っても間違いではありません。エアコンのAIはセンサーとCPUの組み合わせですが、弱いAIに分類されます。強いAIについては後ほど触れますが、まだ実現していません。日本人はSFが好きなのでAIという文字を見ると、強いAIを連想してしまうのだと思います。

 AIの基準は時代によっても変化しています。かつては「Office97」から登場したイルカのアシスタントもAIと呼ばれていました。質問を入力すると類似した質問と解答の候補を表示させるだけのヘルプ機能ですが、当時はこれも立派なAIだったんです。AIのパラドックスというのがあって、中身が分かるとAIでなくなると言われています。スマホに使われている仮名漢字変換機能も当時はAIと言われていました。どんな技術が使われているか分からないと、これはAIということになります。タネが分かるとAIでなくなります。

話題のHFTの原理は1980年代から変わらない

Q つまり弱いAIの定義は人間の代わりに判断する機能なんですね。それでは金融界で話題のHFT(High Frequency Trading)は、AIがおこなっているのでしょうか?

大澤 HFTがやっていることは、アービトラージですね。1980年代からウォール街でおこなわれているトレード方法です。証券取引所と証券会社を専用回線で接続して株の売買をおこなっていました。その原理は取引所によって株価に差があることを利用します。簡単に言えば価格の安い取引所で買って、高く買ってくれる取引所に売るだけです。ほぼリスクがなく確実に儲かります。予測や分析の必要もありません。

 現在では価格差の大きな仮想通貨に用いられることが多いですね。日本はアメリカに25年ほど遅れてようやく機関投資家や富裕層の資金を使ったヘッジファンドが導入され、その中でHFTを取り扱うようになったのがここ5年ぐらいです。2018年にようやく金融庁がHFTの登録制度を導入しました。

 日本は金融のIT化が遅れているので、損益の発生しない、ダウンサイドリスクがゼロのHFTのような安全な取引からAIを導入してるのだと思われます。

 当時は人間がPCを使って売買していましたが、90年代に、これを自動化したのがHFTです。アービトラージはいち早く大きな価格差のある株を見つけて、大量に素早く売買する必要があります。売却までには価格変動リスクがあるので、早く売るのことも大切です。つまりHFTはAIが優秀かどうかではなく、1秒でも早く売買を成立させた方が勝ちという勝負です。それで証券取引所の近くの土地を確保して高速回線を引くという競争がおこっています。最終的には不動産の勝負になっているので、当社のテクノロジー企業としての優位性を発揮できないので、別のアプローチでAIを使った資産運用を考えています。


ロボアドは利用料金が割高になる


このほど上梓した『AI救国論』

Q それではロボットアドバイザーが自動的に最適な資産配分や投資対象を提案してくれるロボアドこそが、AIを生かした投資方法なのでしょうか?

大澤 日本にはTHEO(テオ)やWealthNaviなどのロボアドが存在します。ETF(上場投資信託)の分散投資先をどうするかの配分を決めています。実際にはリスク配分を5段階ぐらいに分けて、それに合わせた投資先を選んでいます。ロボアド自体は悪くありませんが、資産運用を任せることによって投資一任報酬と呼ばれる手数料が別途発生するため、他の投信と比較すると利益を上げるのが難しいと言えます。

 ただし、日本人は投資信託に対する敷居が高いと感じているので、スマホのアプリでロボアドで気軽に投資ができます、という心理的障壁を低くする役目を果たしています。実際に買っているのは公募投資信託です。これだと固くてとっつきにくいので名前を鞍替えしてロボアドが自動的に投資してくれますよと宣伝しているわけです。ロボアドで利益を上げようとすると、それ専門の会社でないと難しいでしょう。ちなみにDaisyはディープラーニングを使ったAIを使って資産を運用するための会社です。

FXで勝つのは不可能に近い

Q それでは上がるか下がるかだけを予測するFX取引にはAIが使えるのでしょうか?

大澤 FXは、日本語では外国為替証拠金取引と言われ、円やドルなどの通貨の売買によって、その差益を狙う投資です。レバレッジを掛けることによって少額な元金で高額な取引がおこなえます。こちらは時間軸で外貨を安く買って高く売るのですが、売買手数料とスプレッドと呼ばれる取引コストがかかります。つまりマイナスからのスタートになります。

 FX会社が証券市場に接続していますが、ここでマーケットメーカーを使い価格調整ができるようになっています。つまり、FX会社は期待値プラス、参加者は期待値マイナスになります。AIを導入するとすればFX会社側が側が利用するという形になるでしょう。またFXをやるには時間がかかります。1日何時間もチャートや値動きを見続ける必要があります。これに対するコストが無視されていることが多いですね。デイトレーダーで年間500万円稼ぐ人がいるとして、そのために使った時間で働いた方が、もっと稼げたかもしれません。

 日本ではギャンブルが禁止されていますが、一定数、ギャンブルの好きな人がいます。これらの人々がFXを選んでいると推測できます。人間は同じ期待値ならリスクを回避する傾向があります。これをプロスペクト理論と呼んでいますが、これとは逆にリスクを好む人もいます。期待値を無視してリスクを好む人がFXをおこなっていると考えられます。

15年前から温めていたDaisyの構想

Q Daisyの構想はいつ頃からあったのでしょうか?

大澤 私の大学での研究テーマは意識についてでした。意識とは情報を統合する存在にあります。イタリア人の神経科学者、ジュリオ・トノー二は「あるシステムが豊富な情報を統合できるなら、そのシステムは意識を持つ」と言っています。では意識は、なぜ意識たり得るのか。なぜ情報は統合されるのかという問題も存在します。生きるために意識が存在するという考え方があります。生きるためには様々な情報が必要でそれを蓄積することでメリットが生まれます。狩りの技術とか病気を直す方法とか。しかし、Webの場合は情報を蓄積してもメリットがありません。情報をいくら集めても0円にしかなりません。

 そうすると情報に価値があるという社会が重要になります。それを実現しているのが株式市場です。効率的市場仮説というものがあって、人々はいつも合理的な判断を下すと市場はランダムウォークなって予測不可能になると言われています。実際には多くのインサイダーが存在するためそうはならず、より情報を持っている人が有利になります。基本的に情報に価値があるのが株式市場です。そこで私は株式市場において意識の存在が生かされるのではないかと考えていました。AIとディープラーニング(深層学習)の登場によって、それを実現する手段が得られたと思い、2018年にDaisyを創設しました。 


3年後には意識を持ったAIが完成!

Q Daisyの完成はいつ頃になりそうですか?

大澤 Daisyの研究は80%ぐらいの完成度で、私の見立てでは3年後には完成すると思います。心があるかどうかは、言葉を理解できるかどうかで決まります。例えばネコにも心があるかもしれませんが、それを言葉で伝えることが出来ません。言葉と心には密接な関係があります。我々は言葉をしゃべっています。頭の中でも考えを言葉にしています。言葉があることで心があることを認識できたとも言えます。

 では、言葉とは何でしょう。誰に話しても同じ意味を持つこと。そして単語や記号で構成された伝達手段です。これを使うには社会が必要になります。AIも社会を作っていくことが重要になります。もし、世界に人間が1人しかいない場合、言葉を使う必要がないので、その人には心がありません。物心が付くという表現がありますが、これは子供が初めて言葉をしゃべった状態を指し示します。自分の存在を意識して、周りの人々を意識した瞬間に自我、すなわち心が生まれます。それを果たすのが社会です。

 現在のAIは実験室の中に人が1人いる状態と変わりません。このままでは心は生まれません。最低でも2つの知能体が存在しなければなりません。この2つをコミュニケートさせることで心が生まれます。この方法がまだ確立されていません。生きるための本能と理性を分けているのが言葉なんです。理性は社会性と同義語になります。その言葉を使うことで社会と合意することを意味します。ミカンを指さして、これはリンゴです、と言ってもいいのですが、人間はそんなことはしません。本能的に社会性が備わっていて、社会性によって言葉と合意して、理性に統率されているからです。言葉は社会に規制され、社会に不都合な行動をさせないようになっています。

会話するAIはプログラミング不要

Q 言葉を理解できるAIにプログラミングは不要ですか?

大澤 言葉が話せるAIは学習ができるのでプログラミングもほぼ不要になります。囲碁に使われているAIも、AI同士で対戦させることによって強くさせています。もし言葉が話せるAIが出来れば、プログラミングのコストももっと下がると思います。人間もプログラミング不要で学習しています。しかし、これにはいろいろな議論があり、教育は人間をプログラミングしているのではないか、学校がなければ我々は生産的な活動ができるか、文字を書いたり言葉を覚えたりできるのだろうか。国は教育にかなりのコストをかけています。小学校、中学校、高校とかなりの数があります。

 プログラミングは子育てだと言われていますが、AIは1歳児の脳と同じレベルと言われています。研究者もAIが囲碁を学習する様子をみて、自分が子育てを疑似体験していると感じる人も多いようです。3歳児までいくと人間の動作を見て学ぶ、イミテーションラーニング(模倣学習)ができるようになるでしょう。


AIを生かした投資の今後

Q 株式投資のためのAIはテクニカルだけでなくファンダメンタルな要素も加味した予測をおこなうのでしょうか?

大澤 前述のアービトラージの場合はテクニカルだけで成立します。長期的な取引ではファンダメンタルも加味する必要がありますが、日本の場合はファンマネがその役目を司っています。ファンマネがAIに任せたいと思うまではAIの出番はないと思われます。

 私が試験運用中のDaisyでは、株、債券、仮想通貨を取引対象として24時間休まずに自動的に取引をおこなっています。AIには様々な情報が与えられています。人工衛星からのリアルタイムの情報も来ています。それによって何が分かるかと言えば、例えばショッピングセンターに駐車してる自動車の数から景気がいいのか悪いのかを判断できます。これには画像認識の技術がないと解析が難しいのですが、それらのデータから未来を予測して長期的なスパンで資金を運用していきます。目指すのは年利10%です。

川野 ロボアドとは桁違いの能力を持った投資専用AIを使っての資産運用がDaisyによって始まろうとしている。その結果がどうでるか、3年後に意識を持ったAIは登場するのか。GAFA包囲網の中で日本発の投資専用AIは一筋の光明となるだろうか。Daisyの続報に期待したい。

7. 中川隆[-13025] koaQ7Jey 2020年3月05日 19:28:49 : b5JdkWvGxs : dGhQLjRSQk5RSlE=[509] 報告
2020年03月05日
ツイッター凍結とAi社会の危うさ


政府の仕事がAI化されて、ある日このように免許証や資格が剥奪されるかも知れない。

引用:http://image.space.rakuten.co.jp/lg01/41/0000162941/69/img4c912df1zikdzj.jpeg


10年以内に多くの職業が人間からAIに変わると言われているが、AIは言われるほど良い物だろうか。


Twitterの自動凍結システム

2016年にTwitterの人気スポーツライター、ジム・ウェーバーがアカウントを凍結され削除されていました。

数年前からTwitterはテロリストやヘイト行為、ネットストーカー、ネット上の虐めなどで大量のアカウント凍結をしている。

凍結されると停止とは違い、2度と復活することはないとされている。


ジム・ウェーバーは2012年から6万9000件ツイートし、100万人以上のフォロワーが居た。

2016年8月5日から8月21日までブラジルでオリンピックが開催されていて、彼はその写真と動画を何度も投稿していた。

8月20日の午後7時55分に動画一件を削除した通知があり、「受信後10分以内に他の違反動画も削除せよ」と書かれていた。


だが受信した3分後にはアカウントが停止され、数日後にアカウント凍結になり、完全に削除された。

この間の数日、ジム・ウェーバーはメールで何度もTwitterと連絡を取ろうとしたが「人間からの」応答は一回もなかった。

Twitterからの返信はすべてAIやボットと呼ばれる自動返信システムで、凍結を防止するのに役立たなかった。


Twitterはそれまでの半年間で、テロやイタズラなど23万5000件の不正アカウントを「自動的に」凍結したと発表している。

それだけではなく、自動化によって不正ツイートを高速に、短時間に削除し凍結できるようになったと、自画自賛していた。

ジム・ウェーバーもこうした自動化されたAIの犠牲になったのだった。

AIで人間が消される日

ベネズエラ人の人気活動家Luigino Bracciも、同じようにオリンピックの動画を投稿して凍結された。

Luigino Bracciは4万3000人のフォロワーを持ち、やはりオリンピック期間中に競技の動画を投稿した。

Twitterで投稿できる動画は数十秒の短い物だが、国際オリンピック委員会(IOC)からクレームを受けた。


彼は法律上合法であると反論して動画の削除をしなかったところ、ジム・ウェーバーと同じように凍結された。

ジム・ウェーバーの例からは、例え指示に従って全ての動画を削除しても、やはり凍結されただろうと想像できる。

このようにAIや自動プログラムによる判断は、人間の言い分や抗議を受け付けず、自分の判断で処分する。


Twitterだから大した事ではなく思えるが、これが運転免許の処分だったらどうだろうか。

ある日自分が速度探知機などに引っ掛かり、警察のAIから「あなたの処分を数日後に決定します」という電話やハガキが届く。

電話は自動音声でこちらが何を言っても反応せず、数日後に罰金の納付通知書と免許停止のお知らせが届く。


AIは人間の判断が介入しないので公平だと言われているが、逆に言うと人間の言い分を聞いてはくれない。

速度探知機のような機械はごくたまにエラーを起こし「制限速度200キロ超過」となっているかも知れない。

そんな時でもAIは抗議を受け付けず、警察の窓口で訴えても「担当が違うから分かりません」などと追い返されるでしょう。


役所や銀行、郵便局やコンビニなど、今まで当たり前のように人間がやっていた仕事が、今後10年くらいでAIに変わると言われています。

Twitterとかネット上のAIを見ていると、言われているほどAIは利口ではないし、無害でもない気がします。

将来は裁判もAIで自動化され、人間による不公平がなくなると言われているが、AIの不公平は誰が裁くのだろうか。


中國では既に多くの権利がAIで管理され、人間生活すべてがスコア管理されています。

交通違反は違反の重要度に応じてマイナススコアが付き、ネット上の政府批判も同様に減点される。

家賃不払いや債務状況もスコア化され、減点が一定以上になると「バスに乗れない」「就職できない」「ネット利用禁止」などペナルティを受けます

冗談ではなく現実に、ネットで習近平の悪口を書いたら交通機関利用停止や免許没収、ネット接続禁止で公的企業(9割の大企業)に就職禁止になっています。


http://www.thutmosev.com/archives/65383670.html#more

8. 中川隆[-8403] koaQ7Jey 2021年1月11日 08:15:51 : 3NBb5fpKfI : Y0tGbi83VmpNM2s=[2] 報告
次の10年でAIが生み出す「究極の企業体」とは?世界的エンジニアが超格差・大失業時代の到来を確信する理由
2021年1月10日
https://www.mag2.com/p/money/1006273


人工知能(AI)を搭載したロボットなどの登場で、私たちの生活はより豊かになっていくと言われています。しかしその一方で、現存する多くの仕事がAIに奪われてしまうとの懸念も。私たちはどのように人工知能と共存していけばよいのでしょうか。メルマガ『週刊 Life is beautiful』の著者で、「Windows 95を設計した日本人」として知られる世界的エンジニアの中島聡さんが、いま話題の新世代プレゼンツール『mmhmm(ンーフー)』の開発ウラ話も交えて解説。すぐそこまできている人工知能時代の人と社会のあるべき姿を考察します。


プロフィール:中島聡(なかじまさとし)
ブロガー、起業家、ソフトウェア・エンジニア、工学修士(早稲田大学)、MBA(ワシントン大学)。 NTT通信研究所、マイクロソフト日本法人、マイクロソフト本社勤務後、ソフトウェアベンチャーUIEvolution Inc.を米国シアトルで起業。現在は neu.Pen LLCでiPhone/iPadアプリの開発に携わっている。

“人間超え”を達成、人工知能の目覚ましい進歩

2021年を迎えるにあたり、これまでメルマガでも何度か書いてきた、人工知能の進化が社会にあたえるインパクトについて、私なりの見方・懸念をまとめて書いてみたいと思います。

人工知能に関する研究は、50年以上の歴史を持ちますが、実際にビジネスに使えるほどにまで進歩したのはごく最近のことです。

大きな転機となったのは、2012年にソフトウェアによる物体の認識率を競うILSVRCというコンテストにおいて、トロント大学のチームが、深層学習という手法を使って、従来の物体の認識率を劇的に(エラー率を26%から17%に)改善することに成功したことからです。

そこからわずか8年しか経っていませんが、その間に、

物体の認識率が人間よりも高くなる
映像や画像から個人を特定することが可能になる
コンピューターゲームを人間よりも上手にプレー出来るようになる
囲碁のような複雑なゲームで人間よりも強くなる
塩基配列からタンパク質の3次元構造を予想することが可能になる
翻訳精度が飛躍的に上昇する
文章の生成能力が格段に上昇する
音声認識・音声合成の能力が格段に上昇する
データ分析に人工知能が応用出来るようになる
無人コンビニが実用化される

などが実現され、その進化のスピードは、ソフトウェア業界の専門家たちをも驚かせています。

10年前は不可能だった車の自動運転も実用レベル
特に進歩が著しいのが、画像認識・物体認識の分野です。世界中の研究者たちの間で、さまざまなテクニックが研究・開発・共有された結果、顔・表情・体の動きなどをリアルタイムで把握する、走っている自動車のカメラで捉えた画像から、他の自動車・歩行者・自転車・車線・ガードレールなどの位置を正確に認識する、などが十分に実用的なレベルにまで達しています。

私自身、mmhmmという会社で、カメラで取り込んだ映像に映る人の手の動きを認識する機能を活用した「ビッグハンド」の実装を担当していますが、こんなことは10年前まではどんなコンピューターを使っても不可能だったことを考えると、近年の進歩のスピードがいかに早いかが分かります。


最近になって、Teslaが全自動運転機能のベータ版をリリースしましたが、これはTesla車に搭載された複数のカメラから取り込んだ映像だけを使って、人や物を認識し、安全な走行を可能にしています。

少し前までは、LIDARという高価なセンサーを搭載していなければ自動運転は実現できないと考えられてきましたが、人工知能を活用した物体認識機能の著しい向上により、LIDARが不要であることを証明してしまったのです。


汎用的な能力を持つ人工知能が人間を駆逐する

2016年に、囲碁の世界チャンピオンを破るほどの人工知能 AlphaGo を開発したのは、DeepMind という会社です(2014年にGoogleが買収)。その後、DeepMind はAlphaGo をはるかに上回る能力を持つ AlphaZero を発表(2018年)していますが、これは人工知能が一度人間の能力を越えてしまえば、あとは差がつく一方であることを示しています。

DeepMind は2020年になって、塩基配列からタンパク質の三次元構造を予測することに成功しましたが、これは医学の進歩にとって非常に画期的なことで、ノーベル医学賞を受賞して当然の発明です。今後、これを活用した、さまざまな新薬や治療法が作られることになるでしょう。

自然言語の認識に関しても、ここ数年で著しい進歩がありました。この分野ではGoogleやMicrosoftが最先端の研究をして業界をリードしてきましたが、2017年になって、DeepLというベンチャー企業が、Googleより自然な翻訳ができるサービスを公開し、注目されています。これはこの分野の伸び代がまだまだあり、ベンチャー企業が活躍できる余地があることを示しています。

そして、自然言語処理に関して、「相転移」と呼べるほどの画期的な進歩をもたらしたのは、OpenAI という会社です。OpenAI が2020年になって公開した GTP-3 は、インターネット上にあるさまざまな文章を教科書として、言葉を学んだ人工知能ですが、これまでの人工知能には無いひとつの特徴を持っています。

その特徴は、言語で表現できるあらゆる質問に答えることができる、という特徴です。

文章を要約する
途中まで書かれた文章を完成する
アマゾンで販売されている商品に対するフィードバックを書く
指定したトピックの記事を書く
ウェブサイトの生成に必要なプログラム(HTML)を書く
難しい法律用語で書かれた文章を普通の文章に変換する
数式を生成する

大量の文章を教育データとして与えただけで、これほどの汎用な能力を持つ人工知能が作れてしまうことは多くの人を驚かせました。GPT-3を「汎用人工知能」への第一歩だと考える人も多数います。

これまで作られて来た人工知能は、特定の作業をするために設計された「専用人工知能」で、人間のようにさまざまな問題を解決することはできません。

「汎用人工知能」とは、人間のような汎用的な能力を持った人工知能のことで、それが開発されれば、人間の知能を本当の意味で超えることが可能になると考えられています。

今後10年で、人間の仕事の大半を人工知能が奪う
この勢いで進歩が続けば、20年代の終わりごろには、少なくとも(創造性を必要としない)定型的な労働・作業は、人工知能の方が、より正確に、かつ、安価にこなすようになります。具体的な例としては、

自動車の運転
会計処理
(銀行の)与信作業
スーパーやコンビニのレジ業務
弁護士事務における判例検索
データ入力
翻訳
議事録作成
受付業務
窓口業務

などが挙げられますが、それらに限った話ではありません。

今後、あらゆる業界で、経営者は「人を使い続けるのか、人工知能で置き換えるのか」という選択を迫られるようになります。人工知能は毎年のように改善されていくので、コスト面、安全性、確実性などで、人工知能の方が人間よりも魅力的になるのは時間の問題でしかなく、その流れに乗れない企業は、競争力を失い、淘汰されていきます。

最近、日本ではデジタル・トランスフォーメーション(DX)という言葉が流行していますが、デジタル・トランスフォーメーションの仕上げは「人工知能やロボットによる人の置き換え」なのです。

その究極の姿は、経営者と一部のエリートだけが創造的な仕事をし、全ての定型業務を人工知能やロボットに任せることにより、「従業員一人当たりの生産性」を極端にまで高めた企業体です。

確実にやってくる大失業時代。格差拡大にどう対応?

この手の議論になると、「人工知能が奪うのは一部の単純作業だけだ」とか「人工知能を導入したとしても人を解雇する必要はない」などの主張をする人がいますが、それは人工知能の進化のスピードや、資本主義の原則を無視し、現実から目を背けた発言で、時間の無駄です。

ひとたび人工知能の方が人よりも正確に、安く仕事をするようになれば、人から職を奪うのは必然です。その結果、従業員一人当たりの生産性は上昇し、それがさらに貧富の差を広げるのです。

そろそろ現実を見据え、これまで人間がやっていた作業を人工知能やロボットに任せるということが、人間社会にとってどんな意味があるかを、真正面から捉えて議論し、来るべき世界(=人工知能より、大半の人が失業してしまう世界)に備える時期がきているのです――

9. 2022年2月23日 14:07:18 : 3VnugaPxMU : RDRQNXFHb01YSk0=[10] 報告
AIは人間にとって敵なのか味方なのか
共存の時代に見えてきた限界点
2022/2/23
https://nordot.app/866615258929315840?c=39546741839462401


 人工知能(AI)は既に私たちにとって欠かせない存在になりつつある。ただ、生活を便利にしてくれる一方で、人間の脅威にもなり得ることも分かってきた。AIが提示する決定は本当に正しいのだろうか。その決定の責任は誰が取るのだろうか。そして人間はより幸せになれるのだろうか―。人類とAIが共存する時代に突入した今、その危険性と限界点が見えてきた。(共同通信=澤野林太郎、吉無田修、渡辺哲郎)

 ▽顔認証

 「仕事から帰宅したら妻と娘たちの前で警察に逮捕された。家族は目に涙を浮かべていた」。米ミシガン州デトロイト郊外に住む黒人男性ロバート・ウィリアムズさんは2020年1月、身に覚えのない窃盗の疑いをかけられた。留置施設で約30時間拘束され、コンクリートむき出しの床で寝なければならなかった。


 ウィリアムズさんを支援する米自由人権協会によると、誤認逮捕は不鮮明な監視カメラの映像と運転免許証の写真が顔認証ソフトで照合され、同一人物と判断されたのが原因。捜査手続きもずさんだった。ウィリアムズさんはデトロイト警察などを相手取り、損害賠償を求める訴訟を起こした。「あってはならないこと。このつらい経験が二度と起こらないようにしたい」と訴えた。

ロバート・ウィリアムズさん(左から2人目)と妻子(米自由人権協会提供)
 顔画像の特徴からAIで人を識別する顔認証技術は、スマートフォンのロック解除でも使われ、社会に浸透しつつある。一方、技術を過信し使い方を誤ると「人違い」による人権侵害が起きる恐れがある。

 米公的機関や大学の研究によると、一部の顔認証ソフトの精度には人種によって差があり、黒人は白人よりも誤認率が高かった。複雑な人種問題を抱える米国ではIBMが顔認証ソフトからの撤退を表明。アマゾン・コムとマイクロソフトは警察への顔認証技術の提供を停止した。規制の動きは米自治体にも広がる。2019年以降、サンフランシスコやボストンなど20市以上が警察による顔認証システムの使用を禁止。連邦レベルの法整備も議会で議論されている。


 日本では警察が、防犯カメラなどの顔画像を過去に逮捕した容疑者の顔写真データベースと照合する顔認証システムの運用を始めた。システムの運用ルールは公表されていない。顔認証はどこまで許容されるのか。プライバシー保護より治安維持を優先すべきなのか。安全と監視は常に隣り合わせにある。

 ▽「信用」点数化 

 「587点 信用一般」。中国浙江省杭州市が運営する異性との出会いを求める市民向けアプリの画面には、相手の顔写真や年収のほかに点数化された「信用」が並ぶ。30代の男性はスマートフォンの画面を見ながら「信用が低すぎる女性とは関わりたくない」とつぶやいた。

 点数を決めているのはAIだ。納税状況や借金の有無、当局による処分歴、ボランティア活動への参加など膨大な情報を基に分析され、数値は変動する。中国では個人情報や行動様式を点数化するスコアリングサービスが普及している。中国政府は、市民の信用度を評価する制度のモデルとして全国50以上の都市を指定。制度を導入した杭州市では、利用者が460万人に達し、人口の3分の1を超えた。点数が高い人は飲食代が割引されるなどの特典が受けられる。

信用評価制度のアプリを見せる男性=2021年10月、中国山東省威海市(共同)
 山東省威海市のある居住区では約400人の情報を管理している。「子どもの大学合格」を加点対象とする一方、中国当局が「邪教」と位置付ける非合法の気功集団「法輪功」に加わると大幅な減点になる。住民の点数を公表し「優秀な」人には報奨としてトイレットペーパーや洗剤などの生活用品を贈呈する。


 制度を管理する女性は「問題行動を起こす住人が減り、われわれの業務も楽になった」と胸を張った。地元のタクシー運転手も「交通環境が改善した」と話す。交通違反をすると数値が下がるためだ。数値を改善しようとボランティアや献血をする人も増えた。「多くの人を公益事業に参加させる効果もある」と肯定的だ。

 ただ仕事ぶりや生活態度などがスコアに正確に反映されていることが前提になる。

 もし低い評価を受けてしまうと、就職活動や住宅入居審査、結婚仲介など人生の重要な局面で不利な扱いを受ける。AIによって人間が選別され、新たな階級社会が発生する恐れもある。AIの活用が行き着いた先に本当に幸せに暮らせる社会があるのか。

 ▽責任は誰に

 「ピン」。車の運転席で小さな音が鳴ると、車内のモニター上部のライトが青く光った。運転の主体が人から自動運転システムに移行し「レベル3」になった瞬間だ。


 ホンダは2021年3月、世界初となるレベル3の新型レジェンドを発売した。高速道路で渋滞時という特定の条件下でなら自動走行できるレベル。12のカメラやセンサーで周囲の状況を把握し、車間を保ちながら自動走行する。ドライバーはハンドルを握らずにモニターでテレビを視聴できる。

 ただ改正道交法は、レベル3では緊急時にドライバーが対応するよう規定している。居眠りしていると注意する音声が流れ、乗車中に運転の主体は人と車の間で何度も入れ替わった。自動運転ではAIを搭載したカメラやセンサーが障害物を認知し、左右に曲がるか加減速するかを判断し、ハンドルやブレーキが自動で操作される。

高速道路で渋滞時にドライバーが手を離し自動走行するホンダの新型レジェンド=2021年9月、東京都内
 完全な自動運転車が実現すればドライバーは不要になる。交通事故が減少し、渋滞の解消や排ガス削減も期待できる。それ故、世界中のメーカーが開発にしのぎを削っている。 一方で自動運転車による事故も相次いでいる。米メディアによると、米道路交通安全局(NHTSA)は18年以降、車線維持や自動ブレーキなどの運転支援システムを搭載した米テスラ製の電気自動車が、ライトを点滅させるなどして停止中の車両に衝突した事故を11件確認。NHTSAはこのシステムの調査に乗りだした。


 2021年8月には東京・晴海の東京パラリンピックの選手村で、トヨタ自動車が開発した自動運転バスと視覚障害の選手が接触事故を起こし、選手は試合を欠場した。

 AIの判断ミスや誤作動は必ず発生する。サイバー攻撃など完全に防げない問題もある。金属の塊である車が暴走すれば大事故に発展する恐れもある。事故の責任は誰が取るのか。明確なルール作りが急がれている。

 ▽平和か戦争か

 東京五輪開会式の夜、国立競技場の上空に大きな「地球」が現れた。ドローン1824台による一糸乱れぬ発光ダイオード(LED)の演出。1台約300グラムのドローンは米インテル製で、全てコンピューターによって制御されている。

 開会式をテレビで見ていた拓殖大の佐藤丙午(さとう・へいご)教授(安全保障)は息をのんだ。「大量のドローンを制御する技術はAI兵器の根幹をなす軍事技術だ。将来、ドローン同士が交信し、自律的に動くようになるだろう」と指摘した。

 似たような映像がある。数十台のドローンが一斉に離陸し、整然と隊列を組みながら標的の場所に向かう。敵に見立てたマネキンを確認すると、急降下し近くで自爆した。このドローンはトルコの軍事企業STMが製造した「Kargu―2」(カルグ2)。AIとセンサー、カメラを搭載、顔認証技術を利用して自動で敵を識別し攻撃できるとされる。 国連安全保障理事会の専門家パネルの報告書は、4個の回転翼で飛行するKargu―2は、人間の意思を介在させずに敵を攻撃する「自律型致死兵器システム(LAWS)」だと指摘。2020年春、内戦下のリビアで爆弾などを搭載して兵士や輸送車両を追尾し、攻撃した可能性があるとした。STMのギュレルユズ最高経営責任者(CEO)は取材に「使用者が攻撃のボタンを押して初めて実行される。人が最終判断を下す」とLAWS機能を否定している。


リビア内戦で使われたとされるドローン「Kargu―2」の改良前のタイプ=2020年6月(ゲッティ=共同)
 LAWSはAIを搭載し顔認証技術で標的を判別して攻撃するため、AI兵器とも呼ばれ、火薬、核兵器に続く「第3の軍事革命」と言われる。しかし国際的なルール作りは進んでいない。グテレス国連事務総長は「人間の判断や管理が及ばない機械に人間を殺す資格や能力を与えてはならない」と禁止を求めている。だが巨額投資して開発競争を進める米国やロシア、中国は規制に反対している。AI兵器は人類を破滅に導く潜在的な脅威となる。平和の祭典である五輪で夜空を飾ったドローンは敵なのか味方なのか。先端技術は常に軍事転用されるリスクをはらんでいる。

 ▽「AIに自己決定権委ねるな」

 AIと人権に詳しい慶応大の山本龍彦教授に話を聞いた。

 「AIは、買い物やビジネスだけでなく、就職や結婚など人生のさまざまな場面で活用されている。膨大な情報の中からAIが「最適解」らしきものを示してくれる。しかし、それは確率的、統計的に人間を分類した結果にすぎない。AIの結果が全てを表しているわけではないという点に注意しなければならない」

 「AIに決定を委ねた方が楽だという人もいるだろう。しかし自分のことを自分で決められるという権利は長い歴史の中で獲得してきた人間の基本的な人権である。奴隷制度や封建的身分制の時代に人々は人生を選ぶことができなかった。AIが提示した選択肢を熟慮せずにそのまま選ぶ行為は、せっかく獲得した自己決定権を放棄し、AIの奴隷、隷属する動物になることに等しい」


 「膨大な情報の中から全てを自分で決めるのは現実的ではないし質も落ちる。日常的な単純作業はAIに任せて人生の進路を大きく左右する決定は人間がするといった『決定の分担』」が必要だ」

インタビューに答える慶応大の山本龍彦教授
 「最近は会員制交流サイト(SNS)やインターネット上の情報から、その人がどのような人か、人の感情まで高精度に予測できるようになった。その結果を使って個人の意思決定を誘導することが可能になり、自己決定と他者による決定の境界がますます曖昧になってきている。選挙での投票行動が他者に操作されていないかなど民主主義に関わるため特に注意が必要だ」

 「AI兵器の開発も進んでいる。戦場で1人の兵士が銃の引き金を引いて他者を撃つという行為は、兵士に迷いや苦悩が伴う。死に至らしめてしまうと大きな責任が生じる。これをAIがするとどうなるか。ゲームのように人が殺害される。そこに苦悩と責任は存在せず、殺害された人の尊厳も顧みられない。AIによる自動化された殺害は人間の尊厳に反する。いっそのことAIとAIが戦えばそのようなことも起こらないだろうが、戦争の完全なゲーム化はもう少し先の話だろう」

 「決定するという行為は、時に苦しく、つらく、悲しいものだ。人間が当事者として悩んだ末に決定し、結果について責任を引き受けなければならない領域もある。決定できること自体が人間が持つ権利であり、人間にしかない苦しみや幸せだ。全ての決定をAIに委ねてしまってはならない」

https://nordot.app/866615258929315840?c=39546741839462401

10. 2023年4月06日 20:15:28 : 0xFq7oNS8I : STUzUThjRmpnOXc=[1] 報告
米国製対話AI、Chat GPTの場合
チャットGPTは米 OPEN AI社が開発し2022年11月30日にサービス開始した対話型AIで、開始1週間ほどで世界に衝撃を与え「すべてを変えた」と評価された

大学生や研究者が1年かけて書くような論文を5分で書いて、それを大学や研究機関が本物と区別できないような事例が次々に報告された

プログラミングコードを書かせたり人間と同じような自然な文章を書き、質問者とAIが自然な言葉で会話するのが今までのネットツールと違っていた

問題になっているのはチャットGPTが最も得意としている作業が「本当のように嘘をつく事」で、人間が書いた文章よりも自然に説得力がある嘘を生成します

これは対話AIがネット上で資料を抽出しているからで、たまたま抽出した資料がフェイクだったらAIはそれを事実と認定します

例えばピラミッドは宇宙人が作ったとか911はブッシュの陰謀だったとか、東日本大震災は米軍の地震兵器だったのような情報量が多ければ、AIは情報量が多い方を「事実だ」と判断します

対話型AIは学習して機能を向上させるがその「学習」とは貴方の個人情報を無断で収集することで、精度が高いAIほど情報を盗みまくっている

機密情報を扱う人がチャットGPTを利用するとその機関の情報が盗まれる恐れがあり、企業や金融機関や軍隊や学校、研究機関の情報も盗まれる恐れがある

イタリア、ドイツ、イギリスがチャットGPT禁止に動いており、他の国や日本でも禁止や制限に向かう可能性がある

だが対話型AIは従来のネット検索より利便性が高いので、個人利用では今後ますます広がっていくでしょう
https://www.thutmosev.com/archives/259995k.html

11. 保守や右翼には馬鹿し[179] lduO54LiiUWXg4LJgs2Ubo6tgrU 2023年5月16日 12:50:23 : aKEy73Ze6E : NEsvOUNzbTU4LjY=[1] 報告
<■267行くらい→右の▽クリックで次のコメントにジャンプ可>
AI評価の最前線
2023年05月16日
https://ameblo.jp/tokaiama20/entry-12803221765.html

 現代ビジネスにAIに関する面白い記事が出ているので紹介する。

 2023.05.16 Amazonが「AIを使ったスマートな採用」をやめた理由…その「意外な危うさ」に気づいていますか
 https://gendai.media/articles/-/110221

vChatGPTの登場いらい、AIに関する議論はこれまでになく大きな盛り上がりを見せています。
 そんななか、AIを活用する場面の一つとして大いに注目されるのが、企業などによる「採用」です。履歴書をAIに「読ませ」、応募者がその企業に必要な人材であるかどうかを判別させる……といった活用法が想定されます。

 ところが、こうしたAIを用いた採用には、倫理的な問題が含まれていることが指摘されています。
 哲学の研究者で関西外国語大学准教授の戸谷洋志さんの著書『スマートな悪』は、現代社会をおおいつくそうとする「スマートさ」「最適化」といった思想が、どのような危うさをはらんでいるかを精緻に分析したものですが、同書のなかには、Amazonが試みた「AI採用」を例に、「最適化」という発想にかくされた意外な危険性を指摘した部分があります。

 AI採用にはどのような問題があるのか、同書から引用します(改行の場所を編集しています)。
 〈アマゾンは人事のプロセスを最適化するために、二〇一四年、AIによって応募者を自動的に評価し、採用候補者を選出するツールの開発に着手した。開発されたAIは、過去にアマゾンに送付されてきた一〇年分の履歴書を分析し、評価されるべき応募者の人材像を学習した。

 しかし、その結果、そのAIは女性よりも男性を高く評価する傾向をもつことが明らかになり、性差別を助長する恐れがあるとして、アマゾンはこのシステムの運用を停止することになった。〉
 なぜ、そのAIは性的な偏向を抱えるようになったのか。それは、過去一〇年間の応募者の大半が男性で占められていたからだ。

 これまでこの会社の求人に応募してきたのは、そのほとんどが男性であったから、この会社は男性に適した会社であり、そしてこれからも男性を採用するべきである、とAIは判断したのである。当然のことながら、これは応募者に対する公正な評価にならないばかりでなく、特定の職業に対する男女の平等な雇用機会を損なわせるものであり、差別の再生産になる〉(同書52頁)

 さらに戸谷さんは、このAmazonの事例には、「ロジスティクスを最適化したい」という現代社会に蔓延する欲望が抱える問題が示されていると言います。なお、ロジスティクスとは、物流や調達、生産、販売、回収など、供給ブロセス全体を一元的に管理する活動のことです。

〈 この事例には、AIによるロジスティクスの最適化が抱える問題の一端が示されている。現実世界のデータがサイバー空間で処理され、それによって現実世界が最適化されるとき、現実世界に存在する不正義は解消されるのではなく、むしろ拡大・再生産されることにもなりえる。

 たとえばアマゾンの人事採用AIは、そのAI自身が女性に対する憎悪を抱いたのではなく、ただ現実に基づいて最善と思える結果を算出しようとしたに過ぎない。しかし、その現実が不正義によって成り立っているとき、その現実へと最適化するソリューションは、むしろ不正義を助長し、その解消をより困難にしてしまう。

 これに対して、男女の平等な雇用機会や、あるいはその根底にある正義の理念は、効率とは本来関係がない。ジェンダーの正義は、むしろ最適化されるロジスティクスにとって外部から挿入される変数であり、システムを混乱させ、効率性を損なわせるのである〉

 〈人事採用AIの問題の本質は、アメリカ社会に根付く性差別的な意識や、アマゾンが開発したAIの性能だけにあるのではなく、あらゆる問題を最適化によって解決しようとし、その結果、最適化の外部にある価値が尊重されなくなっている、という点にある。
 現実が最適化によってのみ理解されるとき、私たちはこうした不正義に対して、言い換えるなら暴力に対して、抵抗することができなくなるのだ〉(同書52-53頁)

 たしかに、厳しい競争にさらされ、日々効率化を求める私たちは、すぐに「最適化」に向けて走ってしまいがちです。しかし、そこには不正義が隠されている場合もある。「最適化」が、効率以外の価値を損なっていないか、既存の社会にある不公正を助長していないか、ときには立ち止まって考える必要があるかもしれません。

 なお、【「スマートな技術」「最適化された世界」が、人間を「不感症」にしてしまう…っていったいどういうことだ?】(5月17日公開)の記事では、さらに「スマートさ」「最適化」といった思想の危うさや問題について解説しています。
 (後編のリンク先が切れていて、正しいアドレスが分からない)
**********************************
 引用以上
 上の記事には「なるほど!」と手を叩きたくなるほどの面白さがある。
 AIが人間を押しのけて、判断の主役になることに対しては、私も一抹どころか、「人類滅亡の引き金」の危惧を感じてきた。

 この問題は、1960年代にコンピュータが実用化された段階で、すでに危惧されたことで、「コンピュータによる選別判断」すなわちAIプログラムも、人間によって組み立てられるものであり、その人間の個性が反映すること。
 人間社会を動かしている要素のすべてを人間が掌握できているわけではないことから、その社会の人為的な「常識」を基底とした判断要素になること。
 
 まあ、大雑把にいえば、AIプログラムを設計する人間の限界が、そのままAIの限界になることであり、人間の知的領域が、宇宙の仕組みのどれほどをカバーできているかといえば、本当にごくわずかしかないのに、それが神のように絶対的にふるまう権力として君臨する可能性があることだ。

 アマゾンは、たかのしれた知恵しか持たないAIに人事部長の権限を委ねた結果、男尊女卑の御宣託をするようになってしまって、慌てているというわけだ。
 AIは、「正義」を前提とした判断などしない。過去の経験則データから「最適化」を行い、もっとも効率的な結果を生み出せるような最適判断をしたということである。

 だが、人間社会に本当に必要なものは、未来に向かって正義、合理性を持つことである。この判断は、人間社会の全体像を把握し、「どんな社会を目指すのか」のビジョンを持っている人間にしかできないのだ。
 しかも、アマゾンという企業は新自由主義思想の下で成長した経済合理性一本槍の企業であり、「人間社会の正義」とは大きくかけ離れた「金儲け主義」を企業原理としている。

 例えば、アマゾンの価格は、日本企業と較べて極端に価格変動することで知られている。需要が多くなって商品供給が逼迫してくると、どんどん価格が上がってゆき、価格価値が需給状況に応じて変動してゆくのだ。
 例えば、明宝ハムがテレビに取り上げられて話題になり、ニーズが高まると、普段1000円で売られている商品が2000円になったりする。まるでオークションのように価格がつり上がってゆくのだ。

 日本企業ならば、ニーズが殺到すれば「品切れ」と表示して「入荷待ち」を求め、価格を釣り上げるようなことはしないが、アマゾンは、「欲しければ高い価格で買え」と金持ちを優先させる仕組みになっている。

 こんな「カネ儲けがすべて」という新自由主義の変動価格制に慣れていないで、「企業は社会インフラ」と教育されている日本の大衆は、アマゾンに対して、「金儲け主義の嫌らしい企業」という不快感を抱くのだが、アマゾン側は「需給に応じた価格変動原理」という「正義」を振りかざすのだ。
 金儲け最優先の新自由主義企業は、おおむね、このような思想を持っている。

 これがアマゾンの体質であって、AIは、まさにそんな金儲け最優先の思想をダイレクトに受けて、「ジェンダー差別否定」の倫理を無視して「金儲けに役に立つ者」を優先採用してしまい、女性を排除する結果になった。
 そこで、「社会正義」を優先させる論者から激しく攻撃されているということである。

 「AIによる最適化」という理屈は、そもそも前提があるのだ。
 前提は、新自由主義企業の場合は、「もっとも経営者や株主の金儲けに役立つこと」であり、一般的な工業では「もっともロスの少ない合理的な作業」であり、人間社会でいえば「もっとも合理的でスムーズな秩序」を作ることなのだが、AIは、プログラムの大前提として、「人命優先、社会正義の実現」という概念を入れてやらないかぎり、合理性一本槍の判断しか出さないのである。

 ときには、人命や社会正義をも、金儲けを優先させるあまり排除してしまうこともありうる。
 資本主義が勃興した、19世紀前後は、資本家の最優先論理は金儲けしかなく、このため労働者の豊かな生活や人命までも犠牲にして突っ走り、金儲け競争をした挙げ句、大恐慌をもたらして自滅するという経過を繰り返した。
 日本でも「女工哀史」や「昭和大恐慌の農村疲弊」で当時の残酷な状況が語り継がれている。

  このなかで「社会主義・共産主義」という労働者の権利を優先させる思想が登場し、「社会正義」という普遍的概念が意識されるようになった。
 しかし、それは人間の苦難の体験の上に築かれた思想であり、AIプログラムはそれを体験し前提に取り入れていないことが問題なのだ。
 AIに経営を任せれば、たちまち無数の「女工哀史」が再現されるのである。

 自動車の自動運転AIでも同じような問題が生じてくる。
 果たして、自動車用AIは、人間社会のあらゆる現象が運転に与える影響をプログラムすることができているだろうか?
 私は、自分が半世紀以上の運転経験からみて、現在の自動運転AIは、安全運転に必要な情報の1%もカバーできていないと考えている。

 「最後まで人間だと認識できず」UberのAI車、初の死亡事故が起きた理由 2019/11/8
 https://news.yahoo.co.jp/byline/kazuhirotaira/20191108-00149956

 歩行者をはねたAIは、最後までそれが「人間」だと認識できなかった――。
 米国家運輸安全委員会(NTSB)は、2018年3月に米アリゾナ州フェニックス郊外で起きたウーバー(Uber)の自動運転車による歩行者死亡事故に関する報告書を公表した。

 米国内ではこのほかにテスラの自動運転車による2件の死亡事故が明らかになっているが、いずれも犠牲となったのは運転していたドライバー。自動運転車による死亡事故で歩行者が犠牲になったのは、この件が初めてだった。

 440ページにのぼる報告書では、ウーバー車のAIは車道に歩行者がいることをそもそも想定していなかったため、最後まで「歩行者」とは認識できていなかったことが、明らかにされた。
 また、急ブレーキも作動しないなど、様々なシステムの欠陥の連鎖があったことが指摘されている。

 一方、この死亡事故の余波で、フェニックス郊外の別の街ではグーグル系列の自動運転車に対し、住民による「打ち壊し」の動きまで報じられていた。
 車道を横断する歩行者は想定外――自動運転車の安全性をめぐる議論は、そんなところから積み重ねる必要があるようだ。

 ●440ページの報告書
 国家運輸安全委員会が5日に公開した事故報告書は、43件で440ページにのぼる。
 事故の概要については、発生から2カ月の2018年5月に中間報告が発表されている。今回の報告書では、事故原因やその後の対応などの詳細についても明らかにされた。
 事故が起きたのは、2018年3月18日、日曜日の夜。

 アリゾナ州の州都フェニックスから自動車で20分ほどの郊外、テンピ市。この夜9時58分、49歳のエレイン・ヘルツバーグ氏は自転車を押しながら、4車線のノース・ミルアベニューを歩いて渡ろうとしていた。

 横断歩道のある交差点から100メートルほど手前の路上。通りを渡り終わる前、ヘルツバーグ氏は右から来たウーバーの自動運転車にはねられる。
 自動運転車は2017年型のボルボXC90をウーバーが改造したもので、一帯で試験走行中だった。ヘルツバーグ氏は搬送先の病院で死亡が確認される。

 ウーバー車の運転席にいたテストドライバー、44歳のラファエラ・バスケス氏にけがはなかった。
 今回公開された報告書によれば、ウーバー車のAIシステムがヘルツバーグ氏を捉えるのが、衝突の5.6秒前。
 時速44マイル(約71キロ)で、ヘルツバーグ氏との距離は110メートルほどある。この時はヘルツバーグ氏を「自動車」と認識している。

 そして衝突の5.2秒前に、今度はヘルツバーグ氏を分類不明の「その他」と認識。さらにその後、衝突の2.7秒前にかけて、「自動車」と「その他」の間を、AIの分類が行ったり来たりする。
 衝突2.6秒前。AIは、ヘルツバーグ氏を初めて「自転車」と認識する。だが、ヘルツバーグ氏を「静止」状態と認識し、ウーバー車の進行方向には向かっていない、と判定している。その距離はすでに50メートルほど。

 衝突1.2秒前、ヘルツバーグ氏を「自転車」と認識した上で、ウーバー車と衝突することを初めて認識。危険を感知し、作動制御のシステムが始動する。
 その1秒後、衝突0.2秒前になって減速が始まると同時に、ドライバーのバスケス氏に警報で危険を知らせる。すでにヘルツバーグ氏との距離は4メートルほど。

 バスケス氏がハンドルを手にして自動運転を終了させたのが衝突の0.02秒前。
 しかし、ウーバー車はヘルツバーグ氏に時速39マイル(約63キロ)で衝突。そしてバスケス氏がブレーキを踏んだのは、衝突から0.7秒後だった。

 ●ネット動画を視聴する
 結局、ウーバー車は最後までヘルツバーグ氏を「人間(歩行者)」とは認識できなかった。これについて、報告書はこう述べている。

 システムのデザインが、車道にいる歩行者を想定していなかったためだ。
路上の歩行者は歩道にいるもの――そんな想定でウーバーのAI車のシステムは開発されていたのだ、という。
しかも、「自動車」「その他」「自転車」と分類が頻繁に揺らぎ、そのたびに別々の「静止している」対象と捉えたため、ヘルツバーグ氏が車道を横切り、ウーバー車の進行方向に向かって”移動”していることが認識できなかったという。

また衝突直前、ウーバー車が危険を感知するが、減速を開始し、警報を鳴らすまでに1秒間の空白がある。
これは、誤検知を回避するためのウーバーによる仕様で、この間にシステムが危険が誤検知ではないかを検証した上で回避ルートを算定する、もしくは同乗する人間のドライバーが自動運転から手動運転への切り替えを行う、という想定で設定されていた時間だという。

 だが、ドライバーのバスケス氏は、この時点でもハンドル操作はしていなかった。
 報告書は、システムに障害は認められなかった、としている。そして、車内に取り付けられたカメラは、衝突までのバスケス氏の様子も撮影していた。
 車内設置のカメラは、バスケス氏がしばしば運転席の下の方に視線をやっている姿を捉えていた。

 報告書は、ネット動画配信サービスの「フールー(Hulu)」から入手したバスケス氏の利用データから、同氏がこの夜、午後9時16分から事故発生の1分後、午後9時59分までの間、動画の視聴を続けていたことが明らかになっている。
 安全確保のためのドライバーは、よそ見どころか、ウーバー車の運転席で「フールー」の視聴をしていたのだ。

 ●システム改修と実験走行再開
 ウーバーは2016年9月から東部のペンシルベニア州ピッツバーグで自動運転車の実験走行を開始。事故の1年前、2017年2月から、南西部アリゾナ州のテンピにも、実験走行の拠点を拡大していた。

 同市では300人にのぼるテストドライバーによって、実験走行を展開していた。
 ウーバーは死亡事故を受けて、各地の自動運転の走行実験を停止し、アリゾナでのプロジェクトは閉鎖した。

 だが、テンピ市に隣接する同州チャンドラー市では、この死亡事故も一つのきっかけとなり、やはり実験走行がおこなわれていたグーグル系列のウェイモの自動運転車に、住民による妨害や攻撃が相次ぐという騒動になっていた。
 ただ、ウーバーによる自動運転車の実験走行は2018年12月にピッツバーグで再開。死亡事故で判明したシステムの問題点についても、歩行者検知のシステムを追加するなど、修正を行った、という。
 だが、人を人として認識できないAIによって、人の命が奪われた、という事実は残る。
************************************
 引用以上

 この事故の続報
 https://gigazine.net/news/20190308-uber-not-criminall-car-crash/
 運転者のバスケスは、過失致死の法的責任を問われているが、結果は不明だ。
 ウーバーシステムそのものに責任はないと検察官が主張している。

 AI時代に人類が直面する大難問に挑む 自動運転車が暴走し事故を起こした。責任をとるべきは誰か? AI倫理――人工知能は「責任」をとれるのか
 https://www.chuko.co.jp/laclef/online/interview/9784121506672_112887.html

 上のリンクにも出てくるが、そもそもAIは人間ではない。法は人間に対してしか責任を求めていないから、絶対に責任をとらないAIを規制せず、その運用責任者である人間にしか責任を求めない。

 だが、人間は事故を起こしたとき、責任をAIに転嫁したがるに違いない。
 少なくとも「自動運転」という宣伝を盲信して、高速道路をオートパイロットに委ねて車内で眠り呆けている姿が少なからず目撃されている。
 https://www.newsweekjapan.jp/stories/world/2019/06/50-28.php

 オートパイロットAI開発者は、人間に対して理想的な運転を求め、それを契約化しておけば自分の責任を回避できると考える。
 しかし運転者側は、AIを過信して、居眠りしても安全と考える。
 この齟齬は、事故という結果で返ってくるわけだが、AIプログラマーと使用者の問題が解決できる日が来るとは、私には思えない。

 冒頭のアマゾンの問題でも、アマゾン首脳のAIに対する過剰な期待と、人間社会のすべてをカバーできないAIプログラムの齟齬が解消できる未来が来るかといえば、私は永遠に絶望するしかないと思う。
 人間社会というものは、論理や法則でカバーできる性質のものではない。宇宙というカオスの属性なのだから。
https://ameblo.jp/tokaiama20/entry-12803221765.html

12. 保守や右翼には馬鹿し[200] lduO54LiiUWXg4LJgs2Ubo6tgrU 2023年5月31日 08:28:08 : a1dgNbG3zo : M1dZMmp1UHFUc1E=[1] 報告
<▽38行くらい>
チャットGPTが示した実在しない判例、NY弁護士が引用 懲戒検討
毎日新聞 2023/5/30

 米ニューヨーク州で審理中の民事訴訟で、対話型人工知能(AI)「チャットGPT」を使った調査を基に、存在しない判例を引用した準備書面が裁判所に提出された。書面の作成にかかわった弁護士は、意図しない誤りだったと認めて謝罪した。

 米紙ニューヨーク・タイムズによると、裁判所は「偽の司法判断」「偽の引用」に満ちた文書が提出される「前例のない事態」に直面したとして、弁護士らに対する懲戒の可否を検討するため、来月8日に審尋を開く。


 訴訟は、ニューヨークへ向かう航空機内で、配膳用のカートでけがをしたと主張する男性がコロンビアの航空会社を訴えたもの。航空会社側の弁護団が、原告側の準備書面で引用された複数の判例がデータベースで見つからないと裁判所に申し出て発覚した。

 裁判所の命令を受けて原告側の代理人弁護士が25日に提出した供述書によると、代理人の同僚で実務歴30年の弁護士が調査を担当し、チャットGPTを利用したことを認めた。指摘を受けて調べ直したところ、準備書面に6件の実在しない判例が引用されていた。


 この弁護士は、チャットGPTを法的な調査に利用したのは初めてだったと主張しており、提示された判例が本当に実在するかも確認していた、と説明した。ただ、それを尋ねた相手もチャットGPTだったという。

 調査を担当した弁護士は供述書で、裁判所や航空会社をだます意図はなかったとし、「非常に後悔している」と述べた。今後は生成AIを使った調査の内容について、「その真偽が完全に確認されない限り二度と使用しない」と誓っている。【ニューヨーク八田浩輔】
https://mainichi.jp/articles/20230530/k00/00m/030/048000c?utm_source=newsshowcase&utm_medium=gnews&utm_campaign=CDAqEAgAKgcICjDH194KMOS91gEwiOjDAQ&utm_content=rundown&gaa_at=la&gaa_n=AXv4zM24CfWUoaR33O1qeYYMiVdQGkGNkS1rQuydjISH5ktTzWBQ3TfEHmqdy1MhXX5_KL6WwcJaW0ugzyNtCCAeT-FP&gaa_ts=64769343&gaa_sig=_2PK5OQZiIJ3Tqc0pk_oiVmcBVWGuMhTQ30SNeFMkG-vh14EBUHuICxtdYf4bg-pevvuKGX0KOxUYtResscXRQ%3D%3D

13. 保守や右翼には馬鹿し[247] lduO54LiiUWXg4LJgs2Ubo6tgrU 2023年6月21日 12:32:58 : cHwnzJYQYs : QW1rZHZjVWl3QWs=[1] 報告
<■130行くらい→右の▽クリックで次のコメントにジャンプ可>
自動運転は、超危険なため廃れてしまう運命だ
2023年06月21日
https://ameblo.jp/tokaiama20/entry-12808792336.html

 これまで究極の便利を目指す「AI社会化ファンタジー」について、私は人間社会との相性が悪いことで、結局廃れてゆく運命にあることを何回も書いてきた。
 マイナカード問題も根は同じで、人間社会には、すべての情報を一元管理できる能力が元々存在しないのだ。その必要もない。一元化管理は、合理性と逆の結果しか生まない。

 「人は必ずミスをする自然存在」という本質を考えれば、全自動化、コンピュータ依存、統一管理など安易な合理化構想は、必ず失敗するに決まっているのである。
 というより、「ミスをすること」が、人間と人生の本質であること、そして、人間社会の未来を定める、もっとも大切な属性であること。
 失敗=ミスによってのみ、社会の安全と永続性が保たれているという哲学的本質を理解できる人なら、AI自動化社会は人類の未来に敵対するものだと理解できるはずだ。

  AI評価の最前線 2023年05月16日
  http://hirukawamura.livedoor.blog/archives/6037443.html

  自動運転問題 2021年08月28日
  http://hirukawamura.livedoor.blog/archives/5830907.html

 高速道路“規制箇所”での事故増加 「運転支援機能」の“過信”で…6/19(月)
https://news.yahoo.co.jp/articles/6010f0b5d962755247e99ff39872579e87c1cb24

 まさに高速道路のミサイル 「工事帯に突っ込む車」衝撃映像が話題 「スマホいじってるの丸見えです 6/18(日)
 https://news.yahoo.co.jp/articles/3b9e3061450b76349de5cae893519342b3464b3d

 上のリンクは、高速道路工事現場に突っ込む車が急増している理由は、「運転支援機能=オートパイロット」を過信して、前をよく見ずにスマホを眺めていたり、居眠りしたりしてることが挙げられている。
 ところが、自動運転プログラムや状況把握センサー機能は、突発的に発生する、さまざまな状況の1割もカバーできていないといわれていて、工事現場を示す標識などセンサーは無視するし、前車が突然方向転換した状況に対応できるプログラムも存在していない。

 アメリカのテスラ自動走行では、道路を横断する老人をセンサーが認識できず、はね殺してしまい、運転者が重過失に問われている。
 また空から鳥がフロントガラスにバードストライクを起こしたり、鹿や熊がとびだしてくる状況に対応できるプログラムも存在していない。
 中津川のような山里に住んでいると、年に数回以上、森から鹿やカモシカなどの動物が道路に突然飛び出してくるのだが、オートパイロットに頼っていたら、ほとんど事故になるしかない。
 人間が運転していれば、瞬時に状況を判断して、ブレーキを踏んだり、ハンドル操作で事故を回避できるので、私はとりあえず無事でいる。

 突然現れる高速道路上の工事現場も、鹿が飛び出してくるに等しい。運転支援機能に頼って前方注意を怠っていたなら、ほぼ確実に事故になり、しかも周囲を巻き込むケースが多い。事故の責任は、100%前方不注意の運転者に帰結する。
 それでは、そうした突発的な特殊状況に対応できる自動運転プログラムが開発できるかといえば、100時間に一回起きるレベルなら対応できるかもしれないが、10000時間に一回起きるレベルになると、現在のプログラム量を、数百倍にしなければならなくなるだろう。

 私は運転歴50年を超えているが、10年に一度しか遭遇しない突発的な出来事も決して珍しくなく、対応を誤れば大きな事故になる。
 例えば、前述の動物飛び出し、そして落石、土石流による通行障害、視認できない道路陥没、欠損、集中豪雨や濃霧による視界不良、道路冠水などだ。
 私は大型二種免なので、横断歩道を渡ろうとしている人がいれば必ず停車するが、後続車が右から追い抜いて、横断歩道上の歩行者を恐怖させたことも一度や二度ではない。

 横断歩道の標識が鮮明に見えることなど少なく、後続車には単なる停車にしか見えないわけだ。
 自動運転プログラムも、先行車の停車が、追い抜くべき停車なのか、横断歩道の停車なのか判断できない。また、50センチより低いものは認識されないともいわれる。
 身長50センチの幼児が、横断歩道を渡っていたら、自動運転プログラムは、どうするつもりなんだ?
 
私は長年の(通算数百万キロ走行)の経験の上で、道路の微妙な変化や、対向車運転手の表情、交通量の異変などから、先に待ち構える異常事態をある程度予測できるが、自動運転プログラムは、せいぜい数千キロ走行程度の経験値から抽象された法則を適用できるにすぎない。
 この先で警察がねずみ取りをやってるなんて、自動運転では予測不可能なのだ。しかし、オービスの前で急ブレーキをかける人が多いので、予測しないと危険である。

 このように、現在の自動運転プログラムは、運転中起きうる、あらゆる事態に対処可能かといえば、不可能である。だが、人間の五感は、AIプログラムの何千倍もの異常や危機を検知できるのだ。
 そもそも、ほとんどの人が意識していないが、道路の狭隘部分ですれ違いするとき、なぜか、無意識に対向車の有無を事前に理解できる人が多い。
 理由は、人間には本能的な予知能力が備わっているからだ。これを書くと、「またエビデンスの存在しない妄想を」と思う人もいるだろうが、これは半世紀以上の私の体験から導き出した法則である。
 ファクトチェックできない真実が存在するのである。これは体験で同意してもらうしかない。

 私は、自分が凍結路でスリップして大事故を起こすことを数ヶ月前から正確に予知していた。今日、これから事故など異変が起きるときも、特別な重い不快な予感がする。
 私は、こんな予知能力を大切にし、カラスの騒ぎ方や、動物の異変で、これから起きる事態を察知することができる。
 こんなエビデンスのない不可解な予知を大切にすることで、異変に対処できるのである。
 この感覚を軽視する人は、早死にすると思っている。AIにそんな感覚は存在しない。

 この意味で、AIが、どれほど経験値情報量を蓄積しても、人間の能力に追いつくことなどできない。私は、せいぜい数パーセント程度しか人間の代替はできないと思っている。
 それに冒頭に書いたが、人間と人生にとって、もっとも大切なことは、「失敗すること」である。

 失敗体験の上で、人間は、遭遇する事態への対処方針と、人生の指針を、たえず修正できるのだ。もし人間が失敗しなくばれば、たちまち能力を劣化させ滅亡してしまうだろう。
 失敗だけが、人を戒め、絶えずアップデートを要求し、人生に対し緊張感を持って対峙し、自分を高めてゆけるのだ。
 AIは人間から失敗体験を奪い、能力を減退させ、滅亡に追い込むものである。
 だから人間が依存してはならない、悪魔の誘惑なのだ。イブのリンゴといってもいい。
 https://ja.wikipedia.org/wiki/%E7%A6%81%E6%96%AD%E3%81%AE%E6%9E%9C%E5%AE%9F

 これは「便利さを求める」こと、「合理化」という概念そのものにまつわる負の側面全体を指すものだ。
 我々が便利になれば、その分、不便さを克服するための知能と体力、忍耐力を失うのである。
 便利になって良いことよりも、むしろ悪いことの方が多い。
 人間にとって一番大切なことは、便利になることではなく、不便を克服できる能力を高めることなのだ。

 私は、人間が安易にAIに依存し、便利さを追求することは、結局、人間の人生に必要な健全な能力を退化させているとしか思えない。
 人生は、困難に遭遇し、苦労することのなかに本当の喜びがあるのではないか?
 このことが理解できない人は、結局、本当に必要な未来のビジョンも理解できず、ダボス会議やビルダーバーグ会議による牢獄都市構想(スーパーシティ)に放り込まれて、ゴイム(家畜)としての監視された人生を送るしかなくなると考える。

 便利さに騙されてはいけない。不便さのなかに、人間としての基本的な能力・体力を大切にしてゆくことだけが、子供たちの未来を保証するのだと私は強く思う。
 AIもEV電気自動車も、たぶん水素自動車も、そしてリニアも主役に上り詰める可能性は存在しない。それはオモチャの地位を超えることはできない。
 もし未来に主役となれる交通機関があるとすれば、それは、せいぜい自転車であることを理解する必要がある。

https://ameblo.jp/tokaiama20/entry-12808792336.html

14. 中川隆[-11742] koaQ7Jey 2024年1月28日 18:00:21 : QrSFa14jDs : U3NkSmpiVldGaWM=[4] 報告
<▽36行くらい>
息を吐くように嘘 をつくAI、医療診断では80%が誤診
https://a777777.bbs.fc2.com/?act=reply&tid=16837360


AI には客観的で公正な判断はできない
http://www.asyura2.com/18/revival4/msg/122.html

人に対して支配者を気取って邪悪な回答を返す対話型AI「BratGPT」が登場した
https://a777777.bbs.fc2.com/?act=reply&tid=14115023

AIの導入は「無用」 と判断された人間の処分につながる
https://a777777.bbs.fc2.com/?act=reply&tid=16827539

インターネット・AI は人類を一つの価値観に隷属させるための強力な怪物
https://a777777.bbs.fc2.com/?act=reply&tid=14089916

【ChatGPT】ビル・ゲイツ ”PC登場以来の衝撃”
https://a777777.bbs.fc2.com/?act=reply&tid=14100164

人工知能チャットボット<ChatGPT>をはじめよう
https://a777777.bbs.fc2.com/?act=reply&tid=14111593

特番『AIが進む未来で人間がやるべき事とは? ーChatGPTや生成AIとどう付き合うべきか?ー』ゲスト:駒澤大学経済学部准教授 井上智洋氏
https://www.youtube.com/watch?v=riNa_BAi8R8

人間よりAI上司のほうがいい
http://www.asyura2.com/18/revival4/msg/138.html

AIはホワイトカラーを労働市場から駆逐する
https://a777777.bbs.fc2.com/?act=reply&tid=14090437

「AI社会」で中間層が消える? アメリカでは高学歴のワーキングプアが増加
http://www.asyura2.com/20/reki5/msg/328.html

▲上へ      ★阿修羅♪ > リバイバル4掲示板 次へ  前へ

  拍手はせず、拍手一覧を見る

フォローアップ:


★登録無しでコメント可能。今すぐ反映 通常 |動画・ツイッター等 |htmltag可(熟練者向)
タグCheck |タグに'だけを使っている場合のcheck |checkしない)(各説明

←ペンネーム新規登録ならチェック)
↓ペンネーム(2023/11/26から必須)

↓パスワード(ペンネームに必須)

(ペンネームとパスワードは初回使用で記録、次回以降にチェック。パスワードはメモすべし。)
↓画像認証
( 上画像文字を入力)
ルール確認&失敗対策
画像の URL (任意):
投稿コメント全ログ  コメント即時配信  スレ建て依頼  削除コメント確認方法

▲上へ      ★阿修羅♪ > リバイバル4掲示板 次へ  前へ

★阿修羅♪ http://www.asyura2.com/ since 1995
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。
 
▲上へ       
★阿修羅♪  
リバイバル4掲示板  
次へ