「人間は時にミスをする」研究の根底に流れるリアルでクールな理解。
それは作者やクリエイターの想像/創造力を掻き立ててやまないテーマなのだろう。古くはカレル・チャペック(チェコスロバキア:当時)による戯曲『R.U.R.(ロッサム万能ロボット商会)、1920年』(ロボットという言葉の初出)、時代が下がり『2001年宇宙の旅』(SF映画、スタンリー・キューブリック監督・脚本、1968年)、日本では誰もが知る『鉄腕アトム』(手塚治虫作、1952-1968年)等々、高度な知的機能を持つ自律ロボット・人工知能と人間との友情、敵対、相克は、数多くのフィクションの世界を賑わせてきた。
現代の工学研究などの所産であるテクノロジーは、人間との関係性の中でこそ、その優れた機能や役割を果たし得る。つまり技術は正しく使ってこそ、真価を発揮する。私たちは最新技術が登載されたマシンやシステムを使いこなすことにより、利便性や快適性を享受できる。“直観的な操作性が売り”のスマートデバイスに対しても、最低限のICTリテラシーは必要だろう。一方で、人命や社会の安全・安定性に直結するマシンやシステムの場合はどうだろう。「機械による支援」と「人間の判断・オペレーション」といった本来図られるべきバランス・均衡が崩れた時、不幸な事故や重大インシデントを呼び寄せかねない。
痛ましい例を引く。2009年6月1日、エールフランス447便が大西洋上に墜落した。この事故では、対気速度計(ピトー管)が凍結で作動せず、自動操縦が解除され、突然すべての権限がパイロットたちに委ねられた。しかし、彼らは速度計が信頼できない場合の初歩的な操縦手順を適用しなかったとされる。フライトレコーダーを解析した報告書では、警報が連続で鳴動していたにもかかわらず、何が起こったか正確には把握できていなかったことも示唆されている。状況を認識する能力を著しく欠いた操縦士が、パニックに陥ったことは想像に難くない。
発電プラント、航空機、航空管制といった大規模かつ重要なシステムの安全な運用に向けたマンマシンインターフェース/インタラクション技術、マニュアル開発、人的事故を未然に防ぐための工学的アプローチを研究しているのが高橋信教授だ。「ひとたび機械やシステムに関係する事故が起きたり問題が持ち上がったりすると、責任の所在が厳しく追及されます。それは原因を明らかにして再発を防ぐためにも必要なことではあるのですが、すべてを人間の所業であると断じてよいのかという疑問があります。例えばエラーを起こしやすい環境だった、人間のパフォーマンスを低下させる要因が(機械側に)あった、はからずも偶発的な出来事が重なった、という可能性もあるわけです」。
近年、AI技術の台頭によりますます重要度を増す“人間と機械の協働”。高橋教授が前提とするのが、「人間は理性を備えた存在であるが、感情にとらわれることもあるし、どんなに注意をしていても時にミスをする」というリアルでクールな理解だ。