★阿修羅♪ > リバイバル4 > 138.html
▲コメTop ▼コメBtm 次へ 前へ ★阿修羅♪
人間よりAI上司のほうがいい
http://www.asyura2.com/18/revival4/msg/138.html
投稿者 中川隆 日時 2020 年 10 月 24 日 15:44:33: 3bF/xW6Ehzs4I koaQ7Jey
 

(回答先: AI には客観的で公正な判断はできない 投稿者 中川隆 日時 2018 年 10 月 19 日 18:09:34)

人間よりAI上司のほうがいい


2020年10月24日
AI上司をほとんどの部下が信頼 最初に消える職業は「上司」

AI上司は人間よりずっと評判がいい


人間よりAI上司のほうがいい

日米欧中など10か国を対象にした2019年の調査で、職場でAIを使っている割合は50%に達し、前年の32%から大きく上回った。

2019年はAIブームに沸いた年で、AIでほとんどの仕事は人間が要らなくなるなどと言われていた。

それから1年たったのでAI普及率はもう70%や80%にもなっているでしょう。

この調査で中国人労働者の77%、インド人労働者の78%が職場でAIを使っていると回答し、フランス(32%)日本(29%)を大きく上回った。

関係があるのかどうか不明だが、AI普及率が高い国のほうが、コロナを早期に抑え込んだ気がします。

「満員電車」「はんこ」「あいさつ回り」の国よりはAIでさっさと済ませた方が効率が良いし、コロナに感染しにくい。


AIの同僚を歓迎する人はインドや中国では過半数、先進国では8%から26%にとどまった。

逆説的な見方をするとインドや中国ではそれだけ「人間の同僚」の質が悪い事になる。

女性(23%)のほうが男性(32%)よりAIへの評価が低いのは、AI相手だとおしゃべりできないからかも知れません。

人間よりAIのほうが信頼できると回答

「管理職とAIのどちらを信頼するか」では64%がAIを信頼すると回答しました。

インド(89%)中国(88%)日本(76%)米国(57%)英国(54%)など全ての国の人々が「AIの方が信頼できる」と回答しました。

82%の人は「管理職よりAIが有能」と答え、人間が有能と答えたのはおそらく自分が管理職だった。


この回答は示唆に富んでいて、例えば将来はバスや飛行機の運転手より「AIの方が信頼できる」ようになる可能性がある。

AIが人間より優れている点としては中立的な情報の提供、作業スケジュールの維持、問題解決、予算の管理などだった。

人間のほうが優れていると答えた人は感情の理解や職場文化など仕事以外の事を挙げた。


これらは「今現在AIと一緒に仕事をしている」人たちの回答なので、現実にこうなっていると認めざるを得ない。

現実の上司は仕事の邪魔をするだけで助けてくれず、上司がAIだったらどんなに良いだろうという話です。

これでは今後10年ほどで多くの職場から「上司」という仕事が真っ先に消滅するでしょう。

http://www.thutmosev.com/archives/84213539.html  

  拍手はせず、拍手一覧を見る

コメント
1. 中川隆[-12578] koaQ7Jey 2023年5月16日 12:50:56 : aKEy73Ze6E : NEsvOUNzbTU4LjY=[2] 報告
<■267行くらい→右の▽クリックで次のコメントにジャンプ可>
AI評価の最前線
2023年05月16日
https://ameblo.jp/tokaiama20/entry-12803221765.html

 現代ビジネスにAIに関する面白い記事が出ているので紹介する。

 2023.05.16 Amazonが「AIを使ったスマートな採用」をやめた理由…その「意外な危うさ」に気づいていますか
 https://gendai.media/articles/-/110221

vChatGPTの登場いらい、AIに関する議論はこれまでになく大きな盛り上がりを見せています。
 そんななか、AIを活用する場面の一つとして大いに注目されるのが、企業などによる「採用」です。履歴書をAIに「読ませ」、応募者がその企業に必要な人材であるかどうかを判別させる……といった活用法が想定されます。

 ところが、こうしたAIを用いた採用には、倫理的な問題が含まれていることが指摘されています。
 哲学の研究者で関西外国語大学准教授の戸谷洋志さんの著書『スマートな悪』は、現代社会をおおいつくそうとする「スマートさ」「最適化」といった思想が、どのような危うさをはらんでいるかを精緻に分析したものですが、同書のなかには、Amazonが試みた「AI採用」を例に、「最適化」という発想にかくされた意外な危険性を指摘した部分があります。

 AI採用にはどのような問題があるのか、同書から引用します(改行の場所を編集しています)。
 〈アマゾンは人事のプロセスを最適化するために、二〇一四年、AIによって応募者を自動的に評価し、採用候補者を選出するツールの開発に着手した。開発されたAIは、過去にアマゾンに送付されてきた一〇年分の履歴書を分析し、評価されるべき応募者の人材像を学習した。

 しかし、その結果、そのAIは女性よりも男性を高く評価する傾向をもつことが明らかになり、性差別を助長する恐れがあるとして、アマゾンはこのシステムの運用を停止することになった。〉
 なぜ、そのAIは性的な偏向を抱えるようになったのか。それは、過去一〇年間の応募者の大半が男性で占められていたからだ。

 これまでこの会社の求人に応募してきたのは、そのほとんどが男性であったから、この会社は男性に適した会社であり、そしてこれからも男性を採用するべきである、とAIは判断したのである。当然のことながら、これは応募者に対する公正な評価にならないばかりでなく、特定の職業に対する男女の平等な雇用機会を損なわせるものであり、差別の再生産になる〉(同書52頁)

 さらに戸谷さんは、このAmazonの事例には、「ロジスティクスを最適化したい」という現代社会に蔓延する欲望が抱える問題が示されていると言います。なお、ロジスティクスとは、物流や調達、生産、販売、回収など、供給ブロセス全体を一元的に管理する活動のことです。

〈 この事例には、AIによるロジスティクスの最適化が抱える問題の一端が示されている。現実世界のデータがサイバー空間で処理され、それによって現実世界が最適化されるとき、現実世界に存在する不正義は解消されるのではなく、むしろ拡大・再生産されることにもなりえる。

 たとえばアマゾンの人事採用AIは、そのAI自身が女性に対する憎悪を抱いたのではなく、ただ現実に基づいて最善と思える結果を算出しようとしたに過ぎない。しかし、その現実が不正義によって成り立っているとき、その現実へと最適化するソリューションは、むしろ不正義を助長し、その解消をより困難にしてしまう。

 これに対して、男女の平等な雇用機会や、あるいはその根底にある正義の理念は、効率とは本来関係がない。ジェンダーの正義は、むしろ最適化されるロジスティクスにとって外部から挿入される変数であり、システムを混乱させ、効率性を損なわせるのである〉

 〈人事採用AIの問題の本質は、アメリカ社会に根付く性差別的な意識や、アマゾンが開発したAIの性能だけにあるのではなく、あらゆる問題を最適化によって解決しようとし、その結果、最適化の外部にある価値が尊重されなくなっている、という点にある。
 現実が最適化によってのみ理解されるとき、私たちはこうした不正義に対して、言い換えるなら暴力に対して、抵抗することができなくなるのだ〉(同書52-53頁)

 たしかに、厳しい競争にさらされ、日々効率化を求める私たちは、すぐに「最適化」に向けて走ってしまいがちです。しかし、そこには不正義が隠されている場合もある。「最適化」が、効率以外の価値を損なっていないか、既存の社会にある不公正を助長していないか、ときには立ち止まって考える必要があるかもしれません。

 なお、【「スマートな技術」「最適化された世界」が、人間を「不感症」にしてしまう…っていったいどういうことだ?】(5月17日公開)の記事では、さらに「スマートさ」「最適化」といった思想の危うさや問題について解説しています。
 (後編のリンク先が切れていて、正しいアドレスが分からない)
**********************************
 引用以上
 上の記事には「なるほど!」と手を叩きたくなるほどの面白さがある。
 AIが人間を押しのけて、判断の主役になることに対しては、私も一抹どころか、「人類滅亡の引き金」の危惧を感じてきた。

 この問題は、1960年代にコンピュータが実用化された段階で、すでに危惧されたことで、「コンピュータによる選別判断」すなわちAIプログラムも、人間によって組み立てられるものであり、その人間の個性が反映すること。
 人間社会を動かしている要素のすべてを人間が掌握できているわけではないことから、その社会の人為的な「常識」を基底とした判断要素になること。
 
 まあ、大雑把にいえば、AIプログラムを設計する人間の限界が、そのままAIの限界になることであり、人間の知的領域が、宇宙の仕組みのどれほどをカバーできているかといえば、本当にごくわずかしかないのに、それが神のように絶対的にふるまう権力として君臨する可能性があることだ。

 アマゾンは、たかのしれた知恵しか持たないAIに人事部長の権限を委ねた結果、男尊女卑の御宣託をするようになってしまって、慌てているというわけだ。
 AIは、「正義」を前提とした判断などしない。過去の経験則データから「最適化」を行い、もっとも効率的な結果を生み出せるような最適判断をしたということである。

 だが、人間社会に本当に必要なものは、未来に向かって正義、合理性を持つことである。この判断は、人間社会の全体像を把握し、「どんな社会を目指すのか」のビジョンを持っている人間にしかできないのだ。
 しかも、アマゾンという企業は新自由主義思想の下で成長した経済合理性一本槍の企業であり、「人間社会の正義」とは大きくかけ離れた「金儲け主義」を企業原理としている。

 例えば、アマゾンの価格は、日本企業と較べて極端に価格変動することで知られている。需要が多くなって商品供給が逼迫してくると、どんどん価格が上がってゆき、価格価値が需給状況に応じて変動してゆくのだ。
 例えば、明宝ハムがテレビに取り上げられて話題になり、ニーズが高まると、普段1000円で売られている商品が2000円になったりする。まるでオークションのように価格がつり上がってゆくのだ。

 日本企業ならば、ニーズが殺到すれば「品切れ」と表示して「入荷待ち」を求め、価格を釣り上げるようなことはしないが、アマゾンは、「欲しければ高い価格で買え」と金持ちを優先させる仕組みになっている。

 こんな「カネ儲けがすべて」という新自由主義の変動価格制に慣れていないで、「企業は社会インフラ」と教育されている日本の大衆は、アマゾンに対して、「金儲け主義の嫌らしい企業」という不快感を抱くのだが、アマゾン側は「需給に応じた価格変動原理」という「正義」を振りかざすのだ。
 金儲け最優先の新自由主義企業は、おおむね、このような思想を持っている。

 これがアマゾンの体質であって、AIは、まさにそんな金儲け最優先の思想をダイレクトに受けて、「ジェンダー差別否定」の倫理を無視して「金儲けに役に立つ者」を優先採用してしまい、女性を排除する結果になった。
 そこで、「社会正義」を優先させる論者から激しく攻撃されているということである。

 「AIによる最適化」という理屈は、そもそも前提があるのだ。
 前提は、新自由主義企業の場合は、「もっとも経営者や株主の金儲けに役立つこと」であり、一般的な工業では「もっともロスの少ない合理的な作業」であり、人間社会でいえば「もっとも合理的でスムーズな秩序」を作ることなのだが、AIは、プログラムの大前提として、「人命優先、社会正義の実現」という概念を入れてやらないかぎり、合理性一本槍の判断しか出さないのである。

 ときには、人命や社会正義をも、金儲けを優先させるあまり排除してしまうこともありうる。
 資本主義が勃興した、19世紀前後は、資本家の最優先論理は金儲けしかなく、このため労働者の豊かな生活や人命までも犠牲にして突っ走り、金儲け競争をした挙げ句、大恐慌をもたらして自滅するという経過を繰り返した。
 日本でも「女工哀史」や「昭和大恐慌の農村疲弊」で当時の残酷な状況が語り継がれている。

  このなかで「社会主義・共産主義」という労働者の権利を優先させる思想が登場し、「社会正義」という普遍的概念が意識されるようになった。
 しかし、それは人間の苦難の体験の上に築かれた思想であり、AIプログラムはそれを体験し前提に取り入れていないことが問題なのだ。
 AIに経営を任せれば、たちまち無数の「女工哀史」が再現されるのである。

 自動車の自動運転AIでも同じような問題が生じてくる。
 果たして、自動車用AIは、人間社会のあらゆる現象が運転に与える影響をプログラムすることができているだろうか?
 私は、自分が半世紀以上の運転経験からみて、現在の自動運転AIは、安全運転に必要な情報の1%もカバーできていないと考えている。

 「最後まで人間だと認識できず」UberのAI車、初の死亡事故が起きた理由 2019/11/8
 https://news.yahoo.co.jp/byline/kazuhirotaira/20191108-00149956

 歩行者をはねたAIは、最後までそれが「人間」だと認識できなかった――。
 米国家運輸安全委員会(NTSB)は、2018年3月に米アリゾナ州フェニックス郊外で起きたウーバー(Uber)の自動運転車による歩行者死亡事故に関する報告書を公表した。

 米国内ではこのほかにテスラの自動運転車による2件の死亡事故が明らかになっているが、いずれも犠牲となったのは運転していたドライバー。自動運転車による死亡事故で歩行者が犠牲になったのは、この件が初めてだった。

 440ページにのぼる報告書では、ウーバー車のAIは車道に歩行者がいることをそもそも想定していなかったため、最後まで「歩行者」とは認識できていなかったことが、明らかにされた。
 また、急ブレーキも作動しないなど、様々なシステムの欠陥の連鎖があったことが指摘されている。

 一方、この死亡事故の余波で、フェニックス郊外の別の街ではグーグル系列の自動運転車に対し、住民による「打ち壊し」の動きまで報じられていた。
 車道を横断する歩行者は想定外――自動運転車の安全性をめぐる議論は、そんなところから積み重ねる必要があるようだ。

 ●440ページの報告書
 国家運輸安全委員会が5日に公開した事故報告書は、43件で440ページにのぼる。
 事故の概要については、発生から2カ月の2018年5月に中間報告が発表されている。今回の報告書では、事故原因やその後の対応などの詳細についても明らかにされた。
 事故が起きたのは、2018年3月18日、日曜日の夜。

 アリゾナ州の州都フェニックスから自動車で20分ほどの郊外、テンピ市。この夜9時58分、49歳のエレイン・ヘルツバーグ氏は自転車を押しながら、4車線のノース・ミルアベニューを歩いて渡ろうとしていた。

 横断歩道のある交差点から100メートルほど手前の路上。通りを渡り終わる前、ヘルツバーグ氏は右から来たウーバーの自動運転車にはねられる。
 自動運転車は2017年型のボルボXC90をウーバーが改造したもので、一帯で試験走行中だった。ヘルツバーグ氏は搬送先の病院で死亡が確認される。

 ウーバー車の運転席にいたテストドライバー、44歳のラファエラ・バスケス氏にけがはなかった。
 今回公開された報告書によれば、ウーバー車のAIシステムがヘルツバーグ氏を捉えるのが、衝突の5.6秒前。
 時速44マイル(約71キロ)で、ヘルツバーグ氏との距離は110メートルほどある。この時はヘルツバーグ氏を「自動車」と認識している。

 そして衝突の5.2秒前に、今度はヘルツバーグ氏を分類不明の「その他」と認識。さらにその後、衝突の2.7秒前にかけて、「自動車」と「その他」の間を、AIの分類が行ったり来たりする。
 衝突2.6秒前。AIは、ヘルツバーグ氏を初めて「自転車」と認識する。だが、ヘルツバーグ氏を「静止」状態と認識し、ウーバー車の進行方向には向かっていない、と判定している。その距離はすでに50メートルほど。

 衝突1.2秒前、ヘルツバーグ氏を「自転車」と認識した上で、ウーバー車と衝突することを初めて認識。危険を感知し、作動制御のシステムが始動する。
 その1秒後、衝突0.2秒前になって減速が始まると同時に、ドライバーのバスケス氏に警報で危険を知らせる。すでにヘルツバーグ氏との距離は4メートルほど。

 バスケス氏がハンドルを手にして自動運転を終了させたのが衝突の0.02秒前。
 しかし、ウーバー車はヘルツバーグ氏に時速39マイル(約63キロ)で衝突。そしてバスケス氏がブレーキを踏んだのは、衝突から0.7秒後だった。

 ●ネット動画を視聴する
 結局、ウーバー車は最後までヘルツバーグ氏を「人間(歩行者)」とは認識できなかった。これについて、報告書はこう述べている。

 システムのデザインが、車道にいる歩行者を想定していなかったためだ。
路上の歩行者は歩道にいるもの――そんな想定でウーバーのAI車のシステムは開発されていたのだ、という。
しかも、「自動車」「その他」「自転車」と分類が頻繁に揺らぎ、そのたびに別々の「静止している」対象と捉えたため、ヘルツバーグ氏が車道を横切り、ウーバー車の進行方向に向かって”移動”していることが認識できなかったという。

また衝突直前、ウーバー車が危険を感知するが、減速を開始し、警報を鳴らすまでに1秒間の空白がある。
これは、誤検知を回避するためのウーバーによる仕様で、この間にシステムが危険が誤検知ではないかを検証した上で回避ルートを算定する、もしくは同乗する人間のドライバーが自動運転から手動運転への切り替えを行う、という想定で設定されていた時間だという。

 だが、ドライバーのバスケス氏は、この時点でもハンドル操作はしていなかった。
 報告書は、システムに障害は認められなかった、としている。そして、車内に取り付けられたカメラは、衝突までのバスケス氏の様子も撮影していた。
 車内設置のカメラは、バスケス氏がしばしば運転席の下の方に視線をやっている姿を捉えていた。

 報告書は、ネット動画配信サービスの「フールー(Hulu)」から入手したバスケス氏の利用データから、同氏がこの夜、午後9時16分から事故発生の1分後、午後9時59分までの間、動画の視聴を続けていたことが明らかになっている。
 安全確保のためのドライバーは、よそ見どころか、ウーバー車の運転席で「フールー」の視聴をしていたのだ。

 ●システム改修と実験走行再開
 ウーバーは2016年9月から東部のペンシルベニア州ピッツバーグで自動運転車の実験走行を開始。事故の1年前、2017年2月から、南西部アリゾナ州のテンピにも、実験走行の拠点を拡大していた。

 同市では300人にのぼるテストドライバーによって、実験走行を展開していた。
 ウーバーは死亡事故を受けて、各地の自動運転の走行実験を停止し、アリゾナでのプロジェクトは閉鎖した。

 だが、テンピ市に隣接する同州チャンドラー市では、この死亡事故も一つのきっかけとなり、やはり実験走行がおこなわれていたグーグル系列のウェイモの自動運転車に、住民による妨害や攻撃が相次ぐという騒動になっていた。
 ただ、ウーバーによる自動運転車の実験走行は2018年12月にピッツバーグで再開。死亡事故で判明したシステムの問題点についても、歩行者検知のシステムを追加するなど、修正を行った、という。
 だが、人を人として認識できないAIによって、人の命が奪われた、という事実は残る。
************************************
 引用以上

 この事故の続報
 https://gigazine.net/news/20190308-uber-not-criminall-car-crash/
 運転者のバスケスは、過失致死の法的責任を問われているが、結果は不明だ。
 ウーバーシステムそのものに責任はないと検察官が主張している。

 AI時代に人類が直面する大難問に挑む 自動運転車が暴走し事故を起こした。責任をとるべきは誰か? AI倫理――人工知能は「責任」をとれるのか
 https://www.chuko.co.jp/laclef/online/interview/9784121506672_112887.html

 上のリンクにも出てくるが、そもそもAIは人間ではない。法は人間に対してしか責任を求めていないから、絶対に責任をとらないAIを規制せず、その運用責任者である人間にしか責任を求めない。

 だが、人間は事故を起こしたとき、責任をAIに転嫁したがるに違いない。
 少なくとも「自動運転」という宣伝を盲信して、高速道路をオートパイロットに委ねて車内で眠り呆けている姿が少なからず目撃されている。
 https://www.newsweekjapan.jp/stories/world/2019/06/50-28.php

 オートパイロットAI開発者は、人間に対して理想的な運転を求め、それを契約化しておけば自分の責任を回避できると考える。
 しかし運転者側は、AIを過信して、居眠りしても安全と考える。
 この齟齬は、事故という結果で返ってくるわけだが、AIプログラマーと使用者の問題が解決できる日が来るとは、私には思えない。

 冒頭のアマゾンの問題でも、アマゾン首脳のAIに対する過剰な期待と、人間社会のすべてをカバーできないAIプログラムの齟齬が解消できる未来が来るかといえば、私は永遠に絶望するしかないと思う。
 人間社会というものは、論理や法則でカバーできる性質のものではない。宇宙というカオスの属性なのだから。
https://ameblo.jp/tokaiama20/entry-12803221765.html

2. 中川隆[-11741] koaQ7Jey 2024年1月28日 18:00:40 : QrSFa14jDs : U3NkSmpiVldGaWM=[5] 報告
<▽36行くらい>
息を吐くように嘘 をつくAI、医療診断では80%が誤診
https://a777777.bbs.fc2.com/?act=reply&tid=16837360


AI には客観的で公正な判断はできない
http://www.asyura2.com/18/revival4/msg/122.html

人に対して支配者を気取って邪悪な回答を返す対話型AI「BratGPT」が登場した
https://a777777.bbs.fc2.com/?act=reply&tid=14115023

AIの導入は「無用」 と判断された人間の処分につながる
https://a777777.bbs.fc2.com/?act=reply&tid=16827539

インターネット・AI は人類を一つの価値観に隷属させるための強力な怪物
https://a777777.bbs.fc2.com/?act=reply&tid=14089916

【ChatGPT】ビル・ゲイツ ”PC登場以来の衝撃”
https://a777777.bbs.fc2.com/?act=reply&tid=14100164

人工知能チャットボット<ChatGPT>をはじめよう
https://a777777.bbs.fc2.com/?act=reply&tid=14111593

特番『AIが進む未来で人間がやるべき事とは? ーChatGPTや生成AIとどう付き合うべきか?ー』ゲスト:駒澤大学経済学部准教授 井上智洋氏
https://www.youtube.com/watch?v=riNa_BAi8R8

人間よりAI上司のほうがいい
http://www.asyura2.com/18/revival4/msg/138.html

AIはホワイトカラーを労働市場から駆逐する
https://a777777.bbs.fc2.com/?act=reply&tid=14090437

「AI社会」で中間層が消える? アメリカでは高学歴のワーキングプアが増加
http://www.asyura2.com/20/reki5/msg/328.html

▲上へ      ★阿修羅♪ > リバイバル4掲示板 次へ  前へ

  拍手はせず、拍手一覧を見る

フォローアップ:


★登録無しでコメント可能。今すぐ反映 通常 |動画・ツイッター等 |htmltag可(熟練者向)
タグCheck |タグに'だけを使っている場合のcheck |checkしない)(各説明

←ペンネーム新規登録ならチェック)
↓ペンネーム(2023/11/26から必須)

↓パスワード(ペンネームに必須)

(ペンネームとパスワードは初回使用で記録、次回以降にチェック。パスワードはメモすべし。)
↓画像認証
( 上画像文字を入力)
ルール確認&失敗対策
画像の URL (任意):
最新投稿・コメント全文リスト  コメント投稿はメルマガで即時配信  スレ建て依頼スレ

▲上へ      ★阿修羅♪ > リバイバル4掲示板 次へ  前へ

★阿修羅♪ http://www.asyura2.com/ since 1995
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。
 
▲上へ       
★阿修羅♪  
リバイバル4掲示板  
次へ