★阿修羅♪ > リバイバル4 > 122.html
 ★阿修羅♪
▲コメTop ▼コメBtm 次へ 前へ
AI には客観的で公正な判断はできない
http://www.asyura2.com/18/revival4/msg/122.html
投稿者 中川隆 日時 2018 年 10 月 19 日 18:09:34: 3bF/xW6Ehzs4I koaQ7Jey
 


AI には客観的で公正な判断はできない

MSのAIはたった一日で悪い言葉を覚えて中止になった

画像引用:米MSの人工知能「Tay」が人種差別発言で暴走していたころ、日本MSの人工知能「りんな」は…… - ねとらぼhttp://image.itmedia.co.jp/nl/articles/1603/27/mofigrin001.jpg


アマゾンAIと日本の医学部大の発想が同じ

鳴り物入りで始まったアマゾンのAI採用が、期待と違う結果になりあっけなく中止になった。

原因はAIが女性を採用しないようにしたというのだが、AIは客観的で公正な判断で採用したはずでした。

アマゾンは過去10年間に送られてきた技術職履歴書などのデータをAIに学習させ、2014年から2017年まで使用していた。


技術職の大半は男性だったので、AIは最初から女性をなるべく採用しない事を学習し、男性を優先するようになった。

応募者が女性だったり女子大出身だと自動的に減点し、男性より合格のハードルを高くした。

AIは男性の方が技術者に向いていると思い、女性を外すことで効率よく優秀な技術者を採用できると思い込んだ。


どこかで聞いたような話であり、最近日本で問題になっている医学部の女子への減点と同じでした。

医学部大の言い分では女性は結婚や出産でやめる人が多いので、男性医師を多くしておく必要があった。

アマゾンのAIと同じで「女性は向いていないから最初から減点しておこう」という発想でした。

AIが「悪い言葉」を学習

アマゾンはデータを修正したが、AIが今後も自己学習によってバイアス(偏り)を持つ可能性は否定できないとしている。

このようなことは男女だけでなく多くのグループ分けで起こりえるし、効率的にやろうとするほどバイアスも大きくなる。

例えばある調査では「親の収入が多いほど成績が良く名門大学に入学している」というデータがある。


それなら全員平等ではなく、最初から親が金持ちの受験者を優遇したほうが、効率よく優れた学生を獲得できる。

人種間でも年齢でも非行歴でも同じようなデータはあるだろうし、例えば交通違反についてもいえる。

交通違反を複数回する人は今後も何度となく繰り返すし、それならすぐ免許を没収しようとAIは考えるかもしれない。


MSは2015年にツイッター上で一般人と会話し自己学習するAI のテストを実施しました。

AIはわずか一日で悪い言葉や暴言を学習し、独裁政治は正しいなどと言い始めたので翌日には中止された。

これらのケースは人工知能がいかにデータを教える人間に影響されやすいかを示している。

教える人間が少しでも偏ったことを教えれば、AIはそれを増幅して自己学習し、どんどん偏りが大きくなる。


AIが人間のように学習していくというアイディアは素晴らしいものに思えたが、現実はそれほどうまく行っていません。
http://www.thutmosev.com/archives/77879048.html  

  拍手はせず、拍手一覧を見る

コメント
1. 中川隆[-13368] koaQ7Jey 2018年11月02日 07:43:54 : b5JdkWvGxs : DbsSfawrpEw[-19768] 報告
トレンド追随コンピューター主導型ヘッジファンド、市場混乱で「惨敗」
Suzy Waite、Nishant Kumar 2018年10月27日 4:02 JST
https://www.bloomberg.co.jp/news/articles/2018-11-01/PHIUNM6S972C01

ブルートレンドやキャンタブ、月初から19日まで4−9%の下落


資産価格の急速な反転読めず、金利上昇と株価下落でダブルパンチ

ボラティリティーの急騰で、相場の大きな流れに追随するコンピューター主導型のモデルを活用するヘッジファンドが大きな打撃を受けている。

  数理モデルが明確または顕著なトレンドを示す世界金融危機などの市場の急落場面では、商品投資顧問(CTA)として知られるファンドは、これまで投資家を守ってくれることが多かった。だが、今回は資産価格の急速な反転を読むことができず、レダ・ブラガ氏のブルートレンド・ヘッジファンド、GAMホールディングのキャンタブ部門、マン・グループのAHL部門は10月にいずれも大きな損失を被っている。

  88億フラン(約9850億円)を運用するミラボー・アセット・マネジメントのヘッジファンド責任者、バカール・ズベリ氏は「極めて少数の例外を除き、ほぼ全ての戦略が惨敗だ」と指摘し、「CTAは金利上昇と株価下落のダブルパンチを受けている」と話す。「唯一の出口は撤退で、今や全員がそうしようとしている。CTAのモデルがそうするよう指示しているからだ」と述べた。

  企業業績の減速やイタリアの政治混乱、英国の欧州連合(EU)離脱を巡る混乱の中で、コンピューター主導型のヘッジファンドは1−9月の成績がマイナス1.6%と、通年で設立以来最悪を記録するペースだった。

  ユーリカヘッジは10月の成績を公表していないが、事情に詳しい関係者が確認したところでは、ブルートレンド・ヘッジファンド、キャンタブ・キャピタル・パートナーズ・クオンティタティブ・ファンド・アリスタルコス、AHLダイバーシファイド・ファンドは月初から19日までの下げ幅が4%弱−9%強に達し、年初来の下げが2桁に上った。

  各社ともコメントを控えた。

Under Pressure

Poor gains and cheaper alternatives are making investors pull money from CTAs

Source: Eurekahedge


原題:Trend Followers Stung in Hedge Fund ‘Bloodbath’ as Rout Deepens(抜粋)

2. 中川隆[-13634] koaQ7Jey 2018年11月23日 14:15:04 : b5JdkWvGxs : DbsSfawrpEw[-21040] 報告

2018年11月23日
自動運転バス 各地で始まるも評判は散々


いつかはちゃんと走れるでしょうが近い将来ではなさそう


画像引用:https://japan.cnet.com/article/35120410/

高い期待と低い評価

どうも自動運転は高すぎる期待が先行して現実は追いつかないことが多いようです。

世界初の自動運転車は2015年に登場したテスラのオートパイロットで、その後「自動運転ではない」と言い直した。

テスラは自動運転状態で何件も事故を起こしていて、最初の頃から技術的に進展していない。




つまりドライバーは常に手を添えている必要があり、車は白線の間を走り車間距離を維持するがそれだけの機能しかない。

横から車線変更してきた車は探知できず、白線が消えていると道路外に飛び出したり分離帯に衝突します。

テスラが走行可能なのは高速道路上だけで、一般道路での走行は認められていない。


ウーバーは自動運転を開発していたが、一般道で横断する自転車(降りて押していた)を探知できず衝突した。

このように現在市販されたり路上で試験されている自動運転は、実用的には使い物にならないレベルです。

だが運転者が居眠りや失神して運転不能になった場合には、自動運転によって事故を回避できるかも知れません。


現実はその程度でありとても人間の運転を変わることはできません。

自動運転が既に実用化されている場所があり、それはアマゾンの倉庫などで走行するロボットたちです。

倉庫には歩行者も他の車両もなく完全にコントロールできるので、自動運転にまかせても衝突しない。

自動運転バスの低い評価

日本や外国でバスの自動運転が始まっていて、メディアの人が自分で乗ってみた感想などを記事にしている。

自動運転バスは自動で運転することも可能だが、手動で運転することもできるようになっている。

なぜかというと完全な自動運転ではスムーズに走行できないため、運転者が運転したほうがうまいからです。


例えば道路わきに歩行者が立っていた場合、AIはその人が飛び出すのか歩いているだけか、それとも電柱や看板かを理解できない。

絶対に歩行者を回避できるようにすれば、歩行者の横を通るたびに徐行か停止しなくてはならない。

あるいは前方に車両が止まっている場合、待てば良いのか反対車線に出て前に出るべきかという判断ができない。


もっとダメなのは横道から出てくる車両や自転車などを探知できない点で、構造上横方向から接近するものを認識できない。

バイクや自転車がわきをかすめてチョロチョロ前に出ると、自動運転ではお手上げになる。

そこで自動運転バスが止まると人間の運転手が交代するのだが、最初から人間が運転したほうが早い。


今の時点ではせいぜいこんなもので、近い将来自動運転で運転手が失業するような気配はまったくない。

自動運転で近い将来可能なのはせいぜい、人間が眠った時に一時運転を交代するくらいでしょう。

あるいは高速道路を走行する時だけAIが運転し、一般道路では人間が運転するなども考えられます。


これらは人間の運転手の疲労軽減には役立ちそうです。
http://www.thutmosev.com/archives/78223351.html

3. 中川隆[-12756] koaQ7Jey 2019年1月24日 20:29:26 : b5JdkWvGxs : DbsSfawrpEw[-22231] 報告
AI導入で変貌する未来 せっかくの技術革新が大量失業を生む皮肉
社会2019年1月24日
https://www.chosyu-journal.jp/shakai/10707

誰の為の技術か? 使い方によっては展望にも

 世界的規模でAI(人口知能)をめぐる技術革新がすすみ、今後の生活や仕事環境を激変させる流れが加速している。AIをめぐっては「人手不足が解消できる」「生活が便利になる」という宣伝の一方で、「大失業時代が到来する」との懸念も拡大している。現実に日本の大手四銀行(みずほFG、三菱UFJFG、三井住友FG、りそなHD)は3万5000人規模の業務削減計画を開始した。AIの本格導入により世界で3億7500万人が失職し、日本では2700万人が職を失うと予測する研究機関もある。そもそもAIとは何か、さらにAI導入が何をもたらし、社会全体にどのような影響を及ぼすのか見てみた。

 「AI」といえば、プロ棋士に勝利した将棋ソフト「ポナンザ」や囲碁ソフト「アルファ碁」、クイズ王に勝利した「ワトソン」などは、メディアで話題となった。人間の動きを見ながら仕草を変えて成長するロボット犬「アイボ」、スマートフォンに搭載される「グーグルアシスタント」や「Siri」といったAIスピーカー…など実用化されたものもある。さらに近年は音声操作が可能な炊飯器、コーヒーメーカー、照明、ユーザーが好む服の洗い方を学習していく洗濯機などAIを活用した「AI家電」の種類も増えた。AIロボットが接客する「変なホテル」、AIカメラやスマートフォン決済を使う「無人コンビニ」もあらわれている。

 最近のAIは一昔前の産業ロボットのように単純作業をくり返すだけではない。チェス、将棋、囲碁など限定した分野では世界最高峰の棋士を打ち負かすレベルに達した。「もう何年か経てば人間をこえるAIが出てくるのでは?」「人間がAIに征服されてしまうのではないか?」という憶測や不安まで飛び交うようになった。

人員削減進む大手銀行

 こうしたなかAI技術の進化で仕事が奪われる職種が顕在化している。もっとも影響が大きいのは、これまで「勝ち組」「エリートの花形」と目されてきた金融業界である。銀行員の給与水準が高いこともあり、真っ先に人減らしのターゲットになっている。大手銀行は2016年頃から既存業務のデジタル化を本格化させた。大手四銀行は昨年段階で次のような人員削減計画を明らかにしている。

【三菱UFJFG】
 2023年度までに9500人分の業務量を削減し、6000人を自然減。全516店のうち、23年度末までに70〜100店をセルフ店に切り替え。
【三井住友FG】
 2019年度までに4000人分の業務量を削減し、基幹職は2020年度までに2000人分削減。全430店舗を次世代型店舗化。
【みずほFG】
 2026年度までに1万9000人削減。500拠点のうち100拠点を2024年度までに削減。
【りそなHD】
 2019年度までに3000人削減。2021年度末までに15年度比で業務量半減。

 こうして大手四銀行全体で3万5000人も減らすことができるのは、RPA(ロボティック・プロセス・オートメーション)と呼ばれるソフトウェアロボットの活用が本格化しているからだ。RPAは人がキーボードやマウスでおこなうパソコン作業の内容をあらかじめロボットに記憶させ、その作業を再現する自動化システムで、主としてデータ入力や転記などホワイトカラーの事務作業代替を目指している。ただRPAはAI導入の初歩的段階に位置し、まだ本格導入の域には達していない。

 そのため金融業界ではRPAとAIを組みあわせ、高度業務を自動化する研究や実証実験が進行している。すでに過去のデータ分析をコンピューターに担わせ、会話は米IBMの音声認識システム「ワトソン」などを導入し、「融資サービス」「接客業務」「問い合わせ対応」「株価予測などの情報提供」「ロボットアドバイザー」「不正防止」など金融業務全般をAIに代替させる準備が進んでいる。

 日本の先を行くアメリカでAI化の影響が顕著にあらわれている。米ゴールドマン・サックスのニューヨーク本社・現物株式部門には2000年当時、約600人のトレーダーがおり、顧客の注文を受けて株式を売買していた。ところが2017年に株式トレーダーはわずか2人に減った。トレーダー業務は、約200人のITエンジニアが運用するロボットトレーダーに変わってしまった。

 こうしたなか米マッキンゼー国際研究所は2017年に「2030年までにロボットの利用や自動化で最大3億7500万人が異なる業種への転換を迫られる」と予測している。日本については2700万人が転職を強いられると指摘し、約5900万人の労働人口のうち約半数(46%)が失職すると分析している。OECD(経済協力開発機構)も昨年、自動化で消える仕事の割合は14%と指摘し、32カ国でその対象が6600万人に及ぶことを明らかにした。

 経済産業省はAI導入により2015年度から2030年度の15年間で、735万人の雇用が消失すると指摘した。サービス業は17万人増加すると予測したが、上流工程(経営企画等)=136万人減、製造・調達(製造ライン等)=262万人減、営業販売=124万人減、IT業務=3万人減、バックオフィス(経理等)=145万人減、その他(建設作業員等)=82万人減、というように全産業に大きな影響が出ることを予測している。

 オックスフォード大学との共同研究で「10〜20年後に49%の職業がAIやロボットで代替可能になる」と結論づけた野村総研(NRI)は、AIへの代替可能な職業として100種を指摘した。その主な職種を見ると、これまで自動化が進んできた自動車組み立て工などの製造業に加え、一般事務員、医療事務員、行政事務員など事務・営業職が目立っている【表参照】。

      

 それは産業ロボット導入で非正規雇用化が進んだブルーカラーに加え、今度はホワイトカラーまでAI導入で駆逐していく段階に入ったことを示している。

代替できない創造性

 しかしAIは人間が担っていた業務をすべて成り代わって遂行する機能は持ち得ていない。AIはあくまで大量に蓄積されたデータのなかから、あらかじめ設定された目的にそって適切と思われる答えを探す「道具」にすぎないからだ。例えばグーグルの音声アシスタントを見ても、言葉の意味を理解して応答しているわけではない。話しかけられた声を0・03秒の音の粒に分割し、前後のつながりから何を話しているのかを判断し、応答例として無数に蓄積されたなかからもっとも可能性が高い文面をAIが短時間で探し出し、返答しているだけだ。AI自体には言語を理解する能力も、自分の行動が社会にどのような影響を及ぼすか判断する能力はない。それは「変なホテル」の各部屋に設置されたアシスタントロボが宿泊客のいびきに反応し、夜中中、「すみません、リクエストが聞きとれませんでした」と話しかけ続け、「眠れなかった」と客が激怒したケースを見ても明らかである。

 AIはルールや膨大なデータに基づいて諸関係を覚え、記憶や専門知識を引き出し、今後の展開を予測する能力では人間を上回る段階に達している。しかし主体性や意志、感情があるわけではない。そのため人間があたりまえにおこなう「なぜ?」という問いを抱いたり、喜びや悲しみを感じることはない。ひらめきから独創的な企画を生み出したり、創造力を発揮することはできない。いくらAI技術が発達しても、医療・福祉・介護・教育分野など人間性や創造性が求められる分野の仕事は代替できない。

 一部メディアやバラエティ番組で「人工知能vs人間」「AIが人間をこえる」と煽る動きもあるが、AIに詳しい研究者やIT関係者ほど「AIが人間の能力をいつ超えるかという問いを立てること自体が無意味」「今のAIは人間にとってのツール」「人工知能とは“知能”の再現であって“人間”の再現ではない」と指摘している。

AI技術の飛躍的進化

 AIの研究は70年以上の歴史がある。おおまかな流れを見ると、イギリスを中心にした1700年代後半の第一次産業革命では蒸気や石炭を動力源とする蒸気機関が普及し軽工業や鉄道が発達し、アメリカとドイツを中心にした1800年代後半の第二次産業革命では電力やモーター、内燃機関の普及で重工業が発展した。この工業の発展を基礎にして1900年代半ばにパソコンやインターネットが登場し、自動化を促す第三次産業革命へと進んだ。

 AIはこのパソコン登場と同時に研究が始まり、1950年代には欧米を中心とした第一次AIブームが起きている。AI研究は人間の脳そのものに似せた機械をつくる立場(強いAI)と、人間がおこなう作業の一部を機械に代替させる立場(弱いAI)の二種類ある。しかし人間の脳の仕組み自体がまだ解明できていないため、歴史的に研究が進んできたのは「弱いAI」の方だ。

 第一次AIブームでは、パズルやゲーム、迷路などの知的遊戯をAIに解かせる研究が進んだ。それは「論理(ルールや手順による推論)」をコンピューターに計算方式(アルゴリズム)として覚え込ませることで、人間並みの賢さを目指す試みだった。

 第二次AIブームが起きたのは1980年代だった。それはAIに専門知識を教え込み、応用する研究だった。医学知識を教え込んだ医師のAI、法律知識を覚え込ませた弁護士のAI、などの研究が進んだ。この技術は「エキスパート・システム」と呼ばれ、患者に「はい」「いいえ」で答える質問をくり返し、それをもとに診断するAIロボットも登場した。しかし状況が変化しルールが変わるたびに設定を変えなければならないうえ、想定外の言葉に対応することはできない。画像認識能力も低かった。そのため広範囲な実用化には至らなかった。

 第三次AIブームの発端は2012年だった。コンピューターの画像認識コンテストでカナダ・トロント大学のチームが「ディープラーニング」(深層学習)と呼ばれる技術を使い、それまでとは段階を画した高精度の認識能力を実現したことがきっかけとなった。

 このディープラーニングは機械学習の発展版で、近年のAIの核になる技術である。機械学習はコンピューターに大量のデータを読み込ませ、データの規則性や特徴をコンピューター自身に見つけさせる方法だ。ディープラーニングは脳の認知メカニズムと同様の仕組み(ニューラルネットワーク)をコンピューター内に再現した技術という。脳の神経細胞は複数の神経細胞から受けとったデータをもとに、次の神経細胞へデータを伝えるかを決めている。よく使う神経細胞同士のつながりは太くなってデータが伝わりやすくなる。あまり使わないつながりは細くなる。その構造に似せてデータを認識する入力層、入力層と出力層を結ぶ中間層の層を増やして細分化し、より複雑で細かい特徴を正確かつ素早く認識しやすくする技術である。

 古くから機械学習の技術はあったが、データ取得能力やコンピューターの性能が追いついていなかった。2000年代に入ってコンピューターの高速化(半導体の性能向上)が進んだこと、インターネットを介したデータ取得能力が飛躍的に向上したことが、AIの飛躍的進化を実現した。こうして現在のAIは「休むことなく正確なデータ処理をおこなう能力」「データを収集して学習し永遠に進化し続ける能力」「一度に多数の人とコミュニケーションをとる能力」「AI機器同士で情報交換する能力」を備えている。2000年代以後はAIの実用化やIoT(モノのインターネット)の利用が広がる「第四次産業革命」に入っており、めざましい技術革新が進んでいる。

最も危険な軍事利用

 しかし本来は歓迎すべき技術の進歩が現在の社会においては、大量失業時代を引き寄せたり、国民生活を脅かすマイナス要素として作用する姿が浮き彫りになっている。すでに動き出している四大銀行を軸にしたホワイトカラーの大量リストラは大銀行経営陣には恩恵をもたらすが、数万人の銀行員や家族、地域全体に甚大な影響を及ぼすことになる。AIの実用化が進んで、銀行以外の産業でも人減らしが本格化すれば、今以上に消費購買力が落ち込み、格差が拡大するのは時間の問題である。

 また安倍政府が具体化を進める「未来投資戦略」は、行政サービスや公営施設管理にAIを導入することが重点施策の一つになっている。それは行政職員の人減らしに直結するが、行政施策遂行の上でも都合のいい体制となる。行政窓口やデータ管理をAIに担当させれば24時間作業し続けることが可能になる。感情がないため「心の病」になったり、忖度することはなくなり、税金徴収業務や差し押さえなど無慈悲な対応に拍車がかかるのは必至である。

 そしてもっとも危険な使い道は軍事兵器への応用である。AIは自分の意志がないうえに疲れず、恐怖感もない。一旦攻撃の命令を下せば、どうすればよりダメージを与えられるかを学習し攻撃力を高め続ける極めて厄介な存在となる。米軍がAIを搭載した殺人ドローンや攻撃型潜水艦、陸軍に変わる地上歩行ロボットの研究を急いでいる。政府は防衛大綱で無人爆撃機や無人潜水艦の導入を計画し、防衛省は行政文書管理やサイバー攻撃対処からAIを導入する動きを見せている。

 AIの技術革新は本来、国民生活向上のために活用できるなら社会に大きな恩恵をもたらす内容を持っている。ホワイトカラーの業務を低コストで実現できるなら、給与水準を下げたり、失業者として放り出すのではなく、長時間労働を軽減したり、行政が機能して、介護や教育現場の人手不足を解消するための改善策をとることも可能だ。しかし大資本の利益追求のためにしかAI技術が使われないなら、どれだけ技術革新が進行しても、大失業や社会の荒廃をもたらし、挙げ句の果ては大量殺人兵器を生み出す破滅的な技術に転化するしかない資本主義社会の矛盾も浮き彫りにしている。革新的な発展を遂げているAI技術も、いったいだれが何のために使うのかが大きな焦点になっている。
https://www.chosyu-journal.jp/shakai/10707

4. 中川隆[-12628] koaQ7Jey 2019年1月29日 09:21:08 : b5JdkWvGxs : DbsSfawrpEw[-22231] 報告


2019年01月29日
AIブームの始まりと終わり 「人工知能」に知能はなかった


AIは「障害物の前で止まる」のようにプログラミングされた事を実行しているので、自ら考えてはいない


AIブームは沈静化しはじめている

AIがブームになったのは今から数年前で、きっかけは自動運転車だった気がします。

2015年にテスラがオートパイロットを開始し、世界初の自動運転車として大きな話題になった。

すぐにでも自動運転車が世界を走り回ると予想されたが、4年経った今もほとんど進展しない。

テスラのオートパイロットは複数の衝突防止装置を組み合わせて、一時的に手を離せるものに過ぎなかったがイメージだけが独り歩きした。

たとえば自動運転では行き先を告げれば寝ていても自動車が走ってくれるとか、自動で車庫入れするなどの誤解が広まった。

現在自動車メーカーがテストしている自動運転車は全て、車線に沿って走ったり障害物の手前で止まったり迂回する機能しかない。


人間のように考えたり判断することはできないので、近い将来に人々が考えているような自動運転車は実現しない。

できるとすれば「ゆりかもめ」のように定められたコースを巡回し、障害物があれば停止や迂回しながら進むようなものです。

出かけるたびに行き先が変わり、目的地すら決めずに出かける行動パターンにはとても対応できません。


AIへの過剰な期待は膨らみ、人間と会話できるスマートスピーカーが登場しました。

確かに便利だし面白い商品なのだが、これも期待が大きすぎて現実との乖離が大きい。

スマートスピーカーは人間のように考えているのではなく、決まったパターンに沿って機械学習しているだけです。

「人工知能」に知能はなかった

従来のコンピュータはあらかじめプログラムされた内容に基づいて、かならず決まった挙動を見せました。

ゲームの同じ場面では必ず同じ敵が登場し、同じパターンで攻撃してくるようなことでした。

AIはちょっと高度になり、プレイヤーの行動パターンを学習して毎回パターンを変えてきます。


プレイヤーの新しいデータが増えると、その裏をかくようにモンスターは攻撃パターンを変えたりします。

新たなデータ取得によるパターン変化が、あたかもコンピュータに「知能や知性」があるかのような誤解を与えます。

現在のAIは結局、新しいデータに対応してパターンを変えているだけで、生物のような知能や知性はないです。


将棋でプロ棋士に勝つAI将棋があり、計算能力の速さを生かして数億パターンの展開を一瞬で分析し、最も勝てそうな手を打ってきます。

これもパターン化されたプログラムだが、対戦データによって行動を変化させるので知能があるように見えている。

予めプログラムされた通りに行動しているだけなので、AIに同じデータを与えると必ず同じ反応をする筈です。


これが人々から期待されているAIのイメージと現実のAIの落差に繋がり、例えば自動運転は「ガードレールを探知したら避ける」ような単純な動作しかできない。

「前方に障害物を探知したら減速、停止」「信号の色が赤になったら停止」などプログラムされた通りに単純な動作を繰り返しているだけです。

スマートスピーカーに単純で明快な命令は出来るが、単純すぎて人間の話し相手にはならない。


ゼロから何かを思いついたり、複雑なことを同時に考えたり、無関係なことを関連付けて連想するのは、今のところ人間にしかできません。
http://www.thutmosev.com/archives/78859919.html#more

5. 中川隆[-12241] koaQ7Jey 2019年2月12日 14:06:03 : b5JdkWvGxs : DbsSfawrpEw[-22234] 報告


2019年2月12日
深刻化する「deep fake」ビデオの脅威
斎藤 彰(ジャーナリスト、元読売新聞アメリカ総局長)
http://wedge.ismedia.jp/articles/-/15330

 AI技術の著しい進歩により、最近アメリカで本物そっくりの偽ビデオやオーディオが次々に登場、深刻な問題となりつつある。今後その精度がさらに一段と向上するにつれて、政治目的などに悪用され社会混乱の原因にもなりかねず、米議会でも被害を最小限に食い止めるための法案措置の動きまで出始めている。

 問題となってきたAI技術は「ディープ・フェイク(deep fake)」と呼ばれ、AIが可能にした「ディープラーニング」と「フェイク」をミックスした新造語。真偽をただちにチェックし注意を喚起できる従来の「フェイク・ニュース」などとは異なり、本物との区別がほとんど不可能なほど巧妙に造られている点に特徴がある。


(BrianAJackson/Gettyimages)

 その最たるものが、いわゆる「ディープ・フェイク」ビデオの存在だ。ある人物の顔の形、しわ、目鼻、まゆ、唇の動きなどをコンピューター・グラフィックで微細にわたるまでスキャン、そのデータを別の人物の顔にかぶせ、異なる部分を入念に修正した上で再現する。顔つき、表情のみならず、発声、発音もオーディオ・データのコンピューター分析によって細かく記録、それを唇の動きに合わせて再生させるため、素人目には容易に本人と間違いやすくなる。

 その一例として、アメリカで大きな話題として取り上げられたのは、昨年4月公開された、オバマ大統領があたかも実際に演説しているかのように見せかけたビデオ作品だった。

 新興ネット・メディアとして最近躍進著しい「BuzzFeed」がワシントン州立大学コンピューター・サイエンス技術チームの協力を得てハリウッドの映画製作会社と共同で作り上げたもので、とくにこの作品の中で“オバマ氏”がトランプ大統領のことを「とんでもない間抜け(complete dipshit)」とののしっている部分があり、またたくまにフェイスブックなどを通じて全米に画像が広がり話題騒然となった。

 もちろん、現実に前大統領が現職大統領をこのような下品な言葉でけなすことなどありえず、これを製作、公表した「BuzzFeed」最高経営者も、作品が最初から贋作であることを断っているとした上で「今後、AI技術が超スピードで一層発達し、この種のdeep fake videoが出回ることによって社会混乱が起こりうることを警告したかった」と、その意図について語っている。

 今後、こうした「ディープ・フェイク・ビデオ」が悪用されかねないケースとして米メディアで指摘されているのが、わいせつなポルノ・ビデオの主人公として本物に見せかけた有名人や特定の政治家などを登場させ、品位を貶める、敵対国の選挙に介入し“好ましからざる候補”の偽造演説ビデオを流布するなど、SNSを駆使したかく乱工作だ。さらには、最悪のシナリオの一例として、“トランプ大統領”が「中国を標的にした核ミサイル発射の最終決定を下した」とする「重要演説」動画をSNSで流すといったケースまで議論に上がっている。
 
 すでに実際に、ハリウッド女優界を代表するグラマー美女として知られるスカーレット・ヨハンソンさんの顔がポルノ・ビデオのセックス・シーンの女性にはめこまれるといった被害が報告されているほか、ヨハンソンさん以外でも、本人のまったく知らないところで、別人が演じるわいせつビデオに登場させられていた何件もの類似ケースが出没しているという。
 
 こうしたディープ・フェイク・ビデオの恐怖は、たんなるうわさや偽宣伝チラシ、各種アングラ情報紙(誌)などとは異なり、視覚と聴覚に訴えることによってバーチャル・リアリティの動画を受け手にアピール、信じ込ませることができるだけでなく、それを瞬時に時空を超えて世界中に拡散できる点にある。場合によっては近い将来、国と国の戦争を引き起こし、一方の国の戦況を有利な方向に誘導するといった要因にさえなりうる、と指摘する専門家もいる。

 このため米議会では、「オバマ演説」ビデオで物議をかもした昨年以来、その潜在的脅威と対策について真剣な議論が戦わされてきた。

 最初に問題提起して注目を集めたのが、下院情報特別委員会のアダム・シフ議員ら3人の民主党有力議員だった。シフ議員らは昨年9月13日、本会議で、「ディープ・フェイク・ビデオは個人の信用を失墜させ、脅迫の材料として悪用されるだけでなく、(ロシアなど)外国敵対勢力が悪用し、わが国の国家安全保障上の脅威にもなりうる」と重大警告するとともに、ダニエル・コーツ国家情報長官に対し、とくに外国情報機関が展開しようとしている欺瞞工作の実態と対策について、調査報告の議会提出を求めた特別書簡を送ったことを明らかにした。

 入手した書簡コピーによると、「ディープ・フェイク技術の恐るべき性能と迅速な進歩が今後わが国にもたらしうる甚大な影響にかんがみ、世界各国におけるその現状と将来的影響について把握しておく必要がある」と指摘、具体的に
1.諸外国政府、その国家情報機関および工作員がディープ・フェイク技術を駆使してどのように具体的にわが国国家安全保障上の利益に影響をあたえうるかについての評価。
2.すでに現在にいたるまで、外国政府および工作員が実際にその技術をわが国に対してどのように行使したかの詳細記述。
3.わが政府あるいは民間企業がディープ・フェイク使用の早期発見または未然防止のために取りうる技術的対抗措置の説明。
4.ディープ・フェイクの脅威に対処するために今後、米国各情報機関が取り組むべき、予算措置も含めた努力目標に触れた議会宛て勧告―など7項目について言及した報告書を提出するよう求めた。

 さらに今年に入り上院でも、マルコ・ルビオ議員(共和)ら情報特別委員会有力メンバーらも、この問題についてあいついで警告を発してきた。

 ルビオ議員は先月、米議会のネット・メディア「The Hill」とのインタビューで「わが国の敵対国(複数)はすでにアメリカ国内に対立要因となるような材料をばらまくためにフェイク画像を使用し始めている。


選挙日に投票箱が盗まれようとしているシーンや、政治指導者が対立候補を卑猥な言葉で非難中傷する贋作ビデオが歯止めもなく流出するようなことになった場合のことを想定してみる必要がある」と語り、また同委員会副委員長のマーク・ワーナー議員(民主)も「ディープ・フェイク技術がすでに世の中に出回り始めた以上、今からその危険性を警告しても遅すぎるくらいだ。われわれはもはや防戦に回るしかない」と危機感を募らせた。

 そして、本物と贋作の区別を明確化するための「IDコード」表示義務付けなどを織り込んだディープ・フェイク法案を近く上程する意向を示した。

 ただ、その一方でディープ・フェイク技術は猛スピードで進歩を遂げており、ビデオのひとつひとつについて真贋の識別をすることはますます困難になりつつあるという。

 特に今日、インターネット文化は世界中に拡散の一途をたどっており、たとえば、YouTubeには毎分400時間分の各種ビデオがアップされ、Twitter上では毎分35万回のツイートが掲載されているだけに、アメリカ1国だけでその全容を監視したり、規制したりすることは事実上、不可能に近い状態だ。

フェイク・コンテンツの急速な拡散の背景

 この点に関連して、専門家の一人、ダートマス・カレッジ・コンピューター・サイエンス学部のハニー・ファリド教授は、「The Hill」とのインタビューで次のように総括している。

 「フェイク・コンテンツの急速な拡散の背景には、それを可能とする多くの力が一気に集約され嵐を引き起こしたという側面がある。すなわち、われわれはすでに、偽情報を作り出す能力を手に入れ、それを容易に広範囲に拡散させ、その上に、ばらまかれた情報をためらいもなく鵜呑みにしてしまう公衆がもろ手を広げて待っている状況があるということだ。この世界的風潮にいかに歯止めをかけるかについては、政府や民間企業だけの責任ではなく、市民一人一人がオンライン情報を何であれ受け入れる愚かさ、騙されやすさから目覚める必要がある。すなわち、われわれ全員がディープ・フェイク現象の一部分を構成しているということだ」

 欧米では古くから、「Seeing is Believing(見ることは信じること=百聞は一見にしかず)」が格言のように伝えられてきた。その語源はラテン語「Videre est Credere」に由来する。そして、今日のビデオVideoはまさにこの「Videre」から派生したものだ。

 しかし、今後Videoが最新のAI技術の登場により、本物とは識別がつけにくいフェイクのまま世の中に出回ることになるとすれば……「Seeing is Believing」という言い伝え自体が、死語となる日もそう遠くないかもしれない。

 こうした状況を踏まえ、米議会とくに民主党議員の間では早くも、来年11月の米大統領選への警戒感が強まりつつある。2016年米大統領選挙では、ロシア情報機関の巧妙な介入により、投票日直前になって民主党のヒラリー・クリントン候補にとって不利なメールやがSNSなどを通じ全米に流布され、それが結果的にトランプ氏当選につながったとされる。しかし、2020年選挙では、ロシアが最新のディープ・フェイク技術を駆使して再び介入してくることは必至とみられているからだ。

 この点について、マーク・ワーナー議員は昨年12月初め、テキサス州オースチンで開催された安全保障問題特別セミナーで「ロシアは2020年米大統領選挙に向けて、従来の欺瞞情報活動と新たに登場してきたディープ・フェイク・ビデオを組み合わせた対米工作に乗り出すとみられる。場合によっては、投票日が近づくにつれて精巧につくられた偽ビデオをSNSを通じて次々に流し、選挙を混乱状態に追い込む可能性も否定できない」と警告している。

 そしてやがて、こうしたディープ・フェイクの脅威が、日本など各国の政界や財界にも拡大しない保証はどこにもない。

6. 中川隆[-11073] koaQ7Jey 2019年10月03日 07:50:16 : b5JdkWvGxs : dGhQLjRSQk5RSlE=[1749] 報告


2019年10月3日
3年後に意識の宿ったAIが資金を運用する
東大准教授が語るAI投資の現代と未来
http://wedge.ismedia.jp/articles/-/17519


 19歳でIPA(独立行政法人情報処理推進機構)の未踏スーパークリエータに認定された大澤昇平氏。東京大学・松尾豊研究室で人工知能とWebに関する博士号を取得後に、IBM東京基礎研究所でブロックチェーンの研究開発に参画。現在は東京大学特任准教授、株式会社Daisy代表取締役CEOを兼任している。Daisyは開発者が協力してAIを作るためのプラットフォームで、大澤氏の会社はこのAIを使って投資ファンドの試験運用中である。AIと投資の最前線とは、AIは機関投資家に勝つことができるのか?

電卓、炊飯器、洗濯機も実はAIだった!

Q 世の中AIブームで、デジカメもエアコンもAI搭載を宣言しています。AIには自己学習してプログラムを進化させるイメージがありますが、実際どこまで実用化が進んでいますか?

大澤 AIの定義は広範囲にわたって「弱いAI」と「強いAI」という分類があります。弱いAIとは人間がやっていた作業を代行できる機能です。例えば電卓も人間の代わりに計算する機械なのでAIと言えます。電子計算機=人工知能とも言えます。つまりマイコンチップが入っている機械は全てAI搭載と言っても間違いではありません。エアコンのAIはセンサーとCPUの組み合わせですが、弱いAIに分類されます。強いAIについては後ほど触れますが、まだ実現していません。日本人はSFが好きなのでAIという文字を見ると、強いAIを連想してしまうのだと思います。

 AIの基準は時代によっても変化しています。かつては「Office97」から登場したイルカのアシスタントもAIと呼ばれていました。質問を入力すると類似した質問と解答の候補を表示させるだけのヘルプ機能ですが、当時はこれも立派なAIだったんです。AIのパラドックスというのがあって、中身が分かるとAIでなくなると言われています。スマホに使われている仮名漢字変換機能も当時はAIと言われていました。どんな技術が使われているか分からないと、これはAIということになります。タネが分かるとAIでなくなります。

話題のHFTの原理は1980年代から変わらない

Q つまり弱いAIの定義は人間の代わりに判断する機能なんですね。それでは金融界で話題のHFT(High Frequency Trading)は、AIがおこなっているのでしょうか?

大澤 HFTがやっていることは、アービトラージですね。1980年代からウォール街でおこなわれているトレード方法です。証券取引所と証券会社を専用回線で接続して株の売買をおこなっていました。その原理は取引所によって株価に差があることを利用します。簡単に言えば価格の安い取引所で買って、高く買ってくれる取引所に売るだけです。ほぼリスクがなく確実に儲かります。予測や分析の必要もありません。

 現在では価格差の大きな仮想通貨に用いられることが多いですね。日本はアメリカに25年ほど遅れてようやく機関投資家や富裕層の資金を使ったヘッジファンドが導入され、その中でHFTを取り扱うようになったのがここ5年ぐらいです。2018年にようやく金融庁がHFTの登録制度を導入しました。

 日本は金融のIT化が遅れているので、損益の発生しない、ダウンサイドリスクがゼロのHFTのような安全な取引からAIを導入してるのだと思われます。

 当時は人間がPCを使って売買していましたが、90年代に、これを自動化したのがHFTです。アービトラージはいち早く大きな価格差のある株を見つけて、大量に素早く売買する必要があります。売却までには価格変動リスクがあるので、早く売るのことも大切です。つまりHFTはAIが優秀かどうかではなく、1秒でも早く売買を成立させた方が勝ちという勝負です。それで証券取引所の近くの土地を確保して高速回線を引くという競争がおこっています。最終的には不動産の勝負になっているので、当社のテクノロジー企業としての優位性を発揮できないので、別のアプローチでAIを使った資産運用を考えています。


ロボアドは利用料金が割高になる


このほど上梓した『AI救国論』

Q それではロボットアドバイザーが自動的に最適な資産配分や投資対象を提案してくれるロボアドこそが、AIを生かした投資方法なのでしょうか?

大澤 日本にはTHEO(テオ)やWealthNaviなどのロボアドが存在します。ETF(上場投資信託)の分散投資先をどうするかの配分を決めています。実際にはリスク配分を5段階ぐらいに分けて、それに合わせた投資先を選んでいます。ロボアド自体は悪くありませんが、資産運用を任せることによって投資一任報酬と呼ばれる手数料が別途発生するため、他の投信と比較すると利益を上げるのが難しいと言えます。

 ただし、日本人は投資信託に対する敷居が高いと感じているので、スマホのアプリでロボアドで気軽に投資ができます、という心理的障壁を低くする役目を果たしています。実際に買っているのは公募投資信託です。これだと固くてとっつきにくいので名前を鞍替えしてロボアドが自動的に投資してくれますよと宣伝しているわけです。ロボアドで利益を上げようとすると、それ専門の会社でないと難しいでしょう。ちなみにDaisyはディープラーニングを使ったAIを使って資産を運用するための会社です。

FXで勝つのは不可能に近い

Q それでは上がるか下がるかだけを予測するFX取引にはAIが使えるのでしょうか?

大澤 FXは、日本語では外国為替証拠金取引と言われ、円やドルなどの通貨の売買によって、その差益を狙う投資です。レバレッジを掛けることによって少額な元金で高額な取引がおこなえます。こちらは時間軸で外貨を安く買って高く売るのですが、売買手数料とスプレッドと呼ばれる取引コストがかかります。つまりマイナスからのスタートになります。

 FX会社が証券市場に接続していますが、ここでマーケットメーカーを使い価格調整ができるようになっています。つまり、FX会社は期待値プラス、参加者は期待値マイナスになります。AIを導入するとすればFX会社側が側が利用するという形になるでしょう。またFXをやるには時間がかかります。1日何時間もチャートや値動きを見続ける必要があります。これに対するコストが無視されていることが多いですね。デイトレーダーで年間500万円稼ぐ人がいるとして、そのために使った時間で働いた方が、もっと稼げたかもしれません。

 日本ではギャンブルが禁止されていますが、一定数、ギャンブルの好きな人がいます。これらの人々がFXを選んでいると推測できます。人間は同じ期待値ならリスクを回避する傾向があります。これをプロスペクト理論と呼んでいますが、これとは逆にリスクを好む人もいます。期待値を無視してリスクを好む人がFXをおこなっていると考えられます。

15年前から温めていたDaisyの構想

Q Daisyの構想はいつ頃からあったのでしょうか?

大澤 私の大学での研究テーマは意識についてでした。意識とは情報を統合する存在にあります。イタリア人の神経科学者、ジュリオ・トノー二は「あるシステムが豊富な情報を統合できるなら、そのシステムは意識を持つ」と言っています。では意識は、なぜ意識たり得るのか。なぜ情報は統合されるのかという問題も存在します。生きるために意識が存在するという考え方があります。生きるためには様々な情報が必要でそれを蓄積することでメリットが生まれます。狩りの技術とか病気を直す方法とか。しかし、Webの場合は情報を蓄積してもメリットがありません。情報をいくら集めても0円にしかなりません。

 そうすると情報に価値があるという社会が重要になります。それを実現しているのが株式市場です。効率的市場仮説というものがあって、人々はいつも合理的な判断を下すと市場はランダムウォークなって予測不可能になると言われています。実際には多くのインサイダーが存在するためそうはならず、より情報を持っている人が有利になります。基本的に情報に価値があるのが株式市場です。そこで私は株式市場において意識の存在が生かされるのではないかと考えていました。AIとディープラーニング(深層学習)の登場によって、それを実現する手段が得られたと思い、2018年にDaisyを創設しました。 


3年後には意識を持ったAIが完成!

Q Daisyの完成はいつ頃になりそうですか?

大澤 Daisyの研究は80%ぐらいの完成度で、私の見立てでは3年後には完成すると思います。心があるかどうかは、言葉を理解できるかどうかで決まります。例えばネコにも心があるかもしれませんが、それを言葉で伝えることが出来ません。言葉と心には密接な関係があります。我々は言葉をしゃべっています。頭の中でも考えを言葉にしています。言葉があることで心があることを認識できたとも言えます。

 では、言葉とは何でしょう。誰に話しても同じ意味を持つこと。そして単語や記号で構成された伝達手段です。これを使うには社会が必要になります。AIも社会を作っていくことが重要になります。もし、世界に人間が1人しかいない場合、言葉を使う必要がないので、その人には心がありません。物心が付くという表現がありますが、これは子供が初めて言葉をしゃべった状態を指し示します。自分の存在を意識して、周りの人々を意識した瞬間に自我、すなわち心が生まれます。それを果たすのが社会です。

 現在のAIは実験室の中に人が1人いる状態と変わりません。このままでは心は生まれません。最低でも2つの知能体が存在しなければなりません。この2つをコミュニケートさせることで心が生まれます。この方法がまだ確立されていません。生きるための本能と理性を分けているのが言葉なんです。理性は社会性と同義語になります。その言葉を使うことで社会と合意することを意味します。ミカンを指さして、これはリンゴです、と言ってもいいのですが、人間はそんなことはしません。本能的に社会性が備わっていて、社会性によって言葉と合意して、理性に統率されているからです。言葉は社会に規制され、社会に不都合な行動をさせないようになっています。

会話するAIはプログラミング不要

Q 言葉を理解できるAIにプログラミングは不要ですか?

大澤 言葉が話せるAIは学習ができるのでプログラミングもほぼ不要になります。囲碁に使われているAIも、AI同士で対戦させることによって強くさせています。もし言葉が話せるAIが出来れば、プログラミングのコストももっと下がると思います。人間もプログラミング不要で学習しています。しかし、これにはいろいろな議論があり、教育は人間をプログラミングしているのではないか、学校がなければ我々は生産的な活動ができるか、文字を書いたり言葉を覚えたりできるのだろうか。国は教育にかなりのコストをかけています。小学校、中学校、高校とかなりの数があります。

 プログラミングは子育てだと言われていますが、AIは1歳児の脳と同じレベルと言われています。研究者もAIが囲碁を学習する様子をみて、自分が子育てを疑似体験していると感じる人も多いようです。3歳児までいくと人間の動作を見て学ぶ、イミテーションラーニング(模倣学習)ができるようになるでしょう。


AIを生かした投資の今後

Q 株式投資のためのAIはテクニカルだけでなくファンダメンタルな要素も加味した予測をおこなうのでしょうか?

大澤 前述のアービトラージの場合はテクニカルだけで成立します。長期的な取引ではファンダメンタルも加味する必要がありますが、日本の場合はファンマネがその役目を司っています。ファンマネがAIに任せたいと思うまではAIの出番はないと思われます。

 私が試験運用中のDaisyでは、株、債券、仮想通貨を取引対象として24時間休まずに自動的に取引をおこなっています。AIには様々な情報が与えられています。人工衛星からのリアルタイムの情報も来ています。それによって何が分かるかと言えば、例えばショッピングセンターに駐車してる自動車の数から景気がいいのか悪いのかを判断できます。これには画像認識の技術がないと解析が難しいのですが、それらのデータから未来を予測して長期的なスパンで資金を運用していきます。目指すのは年利10%です。

川野 ロボアドとは桁違いの能力を持った投資専用AIを使っての資産運用がDaisyによって始まろうとしている。その結果がどうでるか、3年後に意識を持ったAIは登場するのか。GAFA包囲網の中で日本発の投資専用AIは一筋の光明となるだろうか。Daisyの続報に期待したい。

7. 中川隆[-13025] koaQ7Jey 2020年3月05日 19:28:49 : b5JdkWvGxs : dGhQLjRSQk5RSlE=[509] 報告
2020年03月05日
ツイッター凍結とAi社会の危うさ


政府の仕事がAI化されて、ある日このように免許証や資格が剥奪されるかも知れない。

引用:http://image.space.rakuten.co.jp/lg01/41/0000162941/69/img4c912df1zikdzj.jpeg


10年以内に多くの職業が人間からAIに変わると言われているが、AIは言われるほど良い物だろうか。


Twitterの自動凍結システム

2016年にTwitterの人気スポーツライター、ジム・ウェーバーがアカウントを凍結され削除されていました。

数年前からTwitterはテロリストやヘイト行為、ネットストーカー、ネット上の虐めなどで大量のアカウント凍結をしている。

凍結されると停止とは違い、2度と復活することはないとされている。


ジム・ウェーバーは2012年から6万9000件ツイートし、100万人以上のフォロワーが居た。

2016年8月5日から8月21日までブラジルでオリンピックが開催されていて、彼はその写真と動画を何度も投稿していた。

8月20日の午後7時55分に動画一件を削除した通知があり、「受信後10分以内に他の違反動画も削除せよ」と書かれていた。


だが受信した3分後にはアカウントが停止され、数日後にアカウント凍結になり、完全に削除された。

この間の数日、ジム・ウェーバーはメールで何度もTwitterと連絡を取ろうとしたが「人間からの」応答は一回もなかった。

Twitterからの返信はすべてAIやボットと呼ばれる自動返信システムで、凍結を防止するのに役立たなかった。


Twitterはそれまでの半年間で、テロやイタズラなど23万5000件の不正アカウントを「自動的に」凍結したと発表している。

それだけではなく、自動化によって不正ツイートを高速に、短時間に削除し凍結できるようになったと、自画自賛していた。

ジム・ウェーバーもこうした自動化されたAIの犠牲になったのだった。

AIで人間が消される日

ベネズエラ人の人気活動家Luigino Bracciも、同じようにオリンピックの動画を投稿して凍結された。

Luigino Bracciは4万3000人のフォロワーを持ち、やはりオリンピック期間中に競技の動画を投稿した。

Twitterで投稿できる動画は数十秒の短い物だが、国際オリンピック委員会(IOC)からクレームを受けた。


彼は法律上合法であると反論して動画の削除をしなかったところ、ジム・ウェーバーと同じように凍結された。

ジム・ウェーバーの例からは、例え指示に従って全ての動画を削除しても、やはり凍結されただろうと想像できる。

このようにAIや自動プログラムによる判断は、人間の言い分や抗議を受け付けず、自分の判断で処分する。


Twitterだから大した事ではなく思えるが、これが運転免許の処分だったらどうだろうか。

ある日自分が速度探知機などに引っ掛かり、警察のAIから「あなたの処分を数日後に決定します」という電話やハガキが届く。

電話は自動音声でこちらが何を言っても反応せず、数日後に罰金の納付通知書と免許停止のお知らせが届く。


AIは人間の判断が介入しないので公平だと言われているが、逆に言うと人間の言い分を聞いてはくれない。

速度探知機のような機械はごくたまにエラーを起こし「制限速度200キロ超過」となっているかも知れない。

そんな時でもAIは抗議を受け付けず、警察の窓口で訴えても「担当が違うから分かりません」などと追い返されるでしょう。


役所や銀行、郵便局やコンビニなど、今まで当たり前のように人間がやっていた仕事が、今後10年くらいでAIに変わると言われています。

Twitterとかネット上のAIを見ていると、言われているほどAIは利口ではないし、無害でもない気がします。

将来は裁判もAIで自動化され、人間による不公平がなくなると言われているが、AIの不公平は誰が裁くのだろうか。


中國では既に多くの権利がAIで管理され、人間生活すべてがスコア管理されています。

交通違反は違反の重要度に応じてマイナススコアが付き、ネット上の政府批判も同様に減点される。

家賃不払いや債務状況もスコア化され、減点が一定以上になると「バスに乗れない」「就職できない」「ネット利用禁止」などペナルティを受けます

冗談ではなく現実に、ネットで習近平の悪口を書いたら交通機関利用停止や免許没収、ネット接続禁止で公的企業(9割の大企業)に就職禁止になっています。


http://www.thutmosev.com/archives/65383670.html#more

▲上へ      ★阿修羅♪ > リバイバル4掲示板 次へ  前へ

  拍手はせず、拍手一覧を見る

フォローアップ:


★登録無しでコメント可能。今すぐ反映 通常 |動画・ツイッター等 |htmltag可(熟練者向)|(各説明

←ペンネーム新規登録ならチェック)
↓ペンネーム(なしでも可能。あったほうが良い)

↓パスワード(ペンネームに必須)

(ペンネームとパスワードは初回使用で記録、次回以降にチェック。パスワードはメモすべし。)
↓画像認証
( 上画像文字を入力)
ルール確認&失敗対策
画像の URL (任意):
投稿コメント全ログ  コメント即時配信  スレ建て依頼  削除コメント確認方法

▲上へ      ★阿修羅♪ > リバイバル4掲示板 次へ  前へ

★阿修羅♪ http://www.asyura2.com/ since 1995
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。
 
▲上へ       
★阿修羅♪  
リバイバル4掲示板  
次へ