AI、人工知能が人の仕事を奪うという話が、繰り返しメディアを賑わせている。
確かに、将棋AIであるPONANZAが2017年、名人のプロ棋士に完勝するなど大きなニュースが続いたことで、AIはもはやもっとも知的な個人よりも知性に溢れているのではないか。
そんな印象が定着しつつあることは、間違い無さそうだ。
しかし、このような考え方は真実だろうか。
むしろ、将棋ソフトが人に勝利したことを含めて、AIは人の仕事を奪うことなどできないと言う事実を、さらに証明しているだけなのではないだろうか。
世の中の趨勢に逆らう考え方ではあることは百も承知だが、そんな考察を少し進めていきたい。
繰り返された悲劇
話は急に変わるが2019年3月10日に発生した、エチオピア航空302便墜落事故を覚えている人はいるだろうか。
同様に、2018年10月29日に発生したライオン・エア610便墜落事故については、あれ程の大事故でありながら今や覚えている人のほうが少数派のはずだ。
しかしこの2つの事故は、僅かでも航空業界に詳しいマニアであれば、今も印象深い戦慄の記憶として残っているのではないだろうか。もちろん筆者もその一人だ。
それは、この2つの事故が単に、ボーイングが誇る最新鋭旅客機であるB737 MAX 8による連続した死亡事故であったから、というだけではない。
1994年4月26日に名古屋空港で発生した、中華航空140便墜落事故を鮮明に思い出させたからだ。
B737 MAX 8に絡むこの2つの墜落事故では、未だ墜落原因は調査中であり、最終報告に至っていない。
しかしながらボーイング社は、これら事故の直後、機体の失速を自動的に防ぐソフトウェアを改修することを発表し、実際に緊急的なソフトウェアの改修を実施した。
なおこの時に改修されたシステムの内容は、機首が上がりすぎた際に失速を防ぐための、自動操縦に関するソフトウェアであることが発表されている。
いわば、ソフトウェアに不具合があり、それが事故の原因の一つであることを間接的に認めた形だ。
では、なぜこの事故とソフトウェアの改修が、四半世紀も前に名古屋で起きた事故を思い出させるのか。
それは、まさにこの名古屋での事故が、自動操縦の意図せぬ働きにより発生したものであったからだ。
詳細な説明は本論ではないので、簡潔にご説明したい。
名古屋で発生した墜落事故では、エアバス社のA300型機が墜落した。
そしてこの航空機には、最新鋭の自動操縦装置が組み込まれており、たとえ人がヒューマンエラーを起こしても墜落しないと言われたほどの性能を誇っていた。
そのような中、事故機であるA300型機は自動操縦がゴーアラウンドモード(着陸のやり直し)のまま、名古屋空港に着陸態勢に入る。
パイロットはこの状態に気が付かず、違和感を持ちながらも手動で無理やり機首を下げ、着陸を強行しようとした。
すると航空機は、ゴーアラウンドを行うには機首が下がりすぎていると判断し、機首を上げパイロットの動きに抵抗し、上昇しようとした。
いわば、無理やり機首を下げようとするパイロットと、無理やり機首を上げようとする自動操縦が綱引きをしている状態だ。
そしてしばらくの格闘の末、異常事態に耐えかねたパイロットは最後には着陸を断念し、突然機首上げ操作を行う。
すると、まるで綱引きの片側が突然手を離した時のように、機体は急激に機首が上がる方向に傾いてしまい、やがて垂直近くに傾いた飛行機はそのまま失速。
尾翼から空港に墜落した、というのが事故原因だった。
この事故までエアバスは、「人とコンピューターの判断に矛盾がある場合、コンピューターの判断を優先する」というポリシーでシステムを組んでいた。
それに対しボーイングは、人を優先するというポリシーでシステムを組み、両者に矛盾がある場合はオートパイロットを自動停止させるというシステムを組んでいた。
このように、人とコンピューターのどちらに最後の判断を委ねるのか、というテーマは、航空業界の大きな命題であり続けた。
しかし、それから四半世紀がたった2019年。
自動操縦やコンピューターの技術が飛躍的に向上したこともあるのだろうか、今回発生した最新鋭機の2つの事故は、コンピューターの判断に重きを置いていた痕跡が垣間見える。
そして、未だにこの問題を解決できていなかった事実をも如実に物語っている。
それは、AIやコンピューターがどれだけ進化しても、自動操縦は必ず状況を見誤るという事実だ。
そして最後の決定権の比重を自動操縦に傾けると、重大事故は容易に起こり得るという教訓が、再び示されることになった。
<<あわせて読みたい>>
メタバースとは?メタバースの語源や意味、具体例をわかりやすく解説!
DXとは?デジタルトランスフォーメーションの意味や定義をわかりやすく解説
不確実な環境下では、結局最後は経営者が全て
ではなぜ、最も知的な将棋の名人を負かすほどAIが発展している世の中で、航空機の自動操縦は未だに「安全確保」というもっとも初歩的な責任を負うこともできないのだろうか。
それは、AIが強さを発揮するのは、将棋盤のように外部環境と隔絶された世界に限られているからだ。
外部と隔絶された世界では想定される事態が有限であり、学べば学ぶほど強くなる理屈が確かに通用する。
実際に、将棋盤の上では、昨日まで飛車であった駒がいきなり角に化ける想定外を見積もる必要はない。
その一方で、常に外部との関わりの中で飛び続ける航空機は全く違う。
外部の環境は常に変わり続け、昨日まで飛車であったものがいきなり角に変わる。
何らかの不具合が発生した場合にも、それが機器の不具合なのかヒューマンエラーなのか異常気象によるものなのかといった組み合わせは、無限の可能性を想定しなければならない。
さらに、自動操縦はインプットが正しいからこそ正常に機能するが、流動する環境から入ってくるインプット情報が明らかに状況と矛盾する場合、自動操縦にもはや為す術はない。
飛行中にピトー管(速度を計測する器具)が何らかの理由で詰まった場合、自動操縦にできることはアラートを鳴らしてパイロットに警告を出すだけだ。
これらの事実は何を表しているのか。
それは、AIはどこまで進歩をしても、結局は人の判断を補完する良きパートナーであり続けるであろう、ということだ。
AIは過去の膨大なデータを分析して、将来起こり得るもっとも可能性の高い予測を示す。
いわば無数の人たちが集まりブレスト(ブレーンストーミング)を行った結果を、瞬時に返してくれる機能であると言い換えてもよいだろう。
「どこでも誰とでも働ける 12の会社で学んだ“これから”の仕事と転職のルール」の著者で、マッキンゼーやNTTドコモ、リクルートや楽天などを経てグーグルでも働いたことがある尾原和啓氏は、その著書の中で、検索エンジンを「最高のブレストの相手」として使い方を紹介している。
疑問に思った単語や事象を次々と検索することで、無限の知恵を貰えるという趣旨だ。
不確実な現実にどのように対処していくのか。
現代を生きる経営者やビジネスパーソンに対し、グーグルのような膨大な集合知を使って有効な意思決定を行うべきであるという提案はとても魅力的に思える。
しかしその一方で、グーグルが返す検索結果に私達は、自分自身の意志を100%委ねることなどありえない。
いわばこれが、AIと人類との関係であり、どこまでも続く未来像ではないだろうか。
最後に、その検索エンジンで「AIが仕事を奪う」とニュース検索すると、少し意外な事実に気が付かされる。
メディア各社がこの「事実らしきもの」を報じている記事を見ると、そのソースはオックスフォード大学の若き准教授、マイケル・A・オズボーン博士の論文がソースであることがほとんどだ。
他には、「~と言われている」というお決まりの主語のないニュースであったり、ソースが不明確な二次情報しか見当たらない。
つまり、たった一人の准教授の論文が、まるで事実であるかのように一人歩きをしている可能性があるということだ。
もしこの仮定が事実なら、私達はずいぶんと「AIが仕事を奪う」という「事実らしきもの」から、誤った印象をインプットされているのではないだろうか。
そういったことを含めて、インプットされた情報の真偽を見極め、改めて意思決定することができるのは今のところ人間が持つ知能だけだ。
結局のところ、AIの進化がもたらすものはただ単に、産業構造の変化だけではないのか。
どれだけ情報テクノロジーが進化しても、経営者を始めとしたトップリーダーの決断にかかる重さも難しさも、変わることは無いのではないか。
当面のところは、そんな結論を導いてもよさそうだ。
<<あわせて読みたい>>