「思考するAIができたら、会社の在り方を根本から見直さないといけませんね」
先週のコラム「第644話 AIは労働力になるのか?」は、大きな反響をいただきました。
Googleアナリティクスで分析してみると、早くもトップ3入り。
平均エンゲージメント時間(実質滞在時間)も、5分38秒とじっくりとお読みいただいた様子が見受けられます。
時代の大きな節目を迎えている今、先手を打てる企業と、茹でガエルになる企業は、確実に二分されると感じます。
これは、企業のみならず個人も同様です。
「最も強い者が生き残るのではなく、最も賢い者が生き残るのでもなく、唯一、生き残る者は変化できる者である」
ご存知の方も多いと思いますが、ダーウィンの著書「種の起源」で有名になった言葉です。
✔︎ 変化の予兆をどう捉えるか?
✔︎ 変化の本質は何か?
✔︎ 我々は、いかに対応すべきか?
AIの詳細を理解するよりも先に「AIがビジネスにどのような影響を与えるか?」という本質論を熟考する必要があると、ひしひしと感じています。
ちなみに、今から4年ほど前の2020年10月13日。
コロナが猛威をふるい、政府が緊急事態宣言をする中で、藤冨はメルマガで、以下のようなことを書いていました。
====メルマガより一部抜粋(コラムではありません)=====
今のご時世において「うちの会社はブラック企業だ!との内部告発が増えてきている!」という話を聞きました。
本当かどうか分かりませんが、もし増えてきているようだったら、告発している社員は、とんでもない勘違いをしているようです。
コロナ禍において、多くの産業が苦境に陥る中、外に放り出されて困るのは社員本人のはず。
それなのに、自分の住み処(勤めている会社)を苦境に立たせるようなことをするなんて、本末転倒です。
2018年から2019年において、人手不足が騒がれ「労働者優位」の風潮が社会を覆った際、「AI時代が到来し、人手をかけずに経営ができるようになったら、経営者の逆襲が始まるはずだ」と、藤冨は主張していました。
今、まさにその「経営者の逆襲」が始まる前夜の気配を感じています。
================================
上記のメルマガは、2022年12月にChatGPTが登場する2年前に書いた文書です。
少し早すぎた感はありますが、AIがもたらす本質をズバリと的中させていたと自負しています。
「受け身」の人は、本当に要注意です。
受け身の姿勢は、本質的に「AI」と変わらないからです。
一方で「能動的な人」は、勝ち目があります。
AIは、情報を受け取るためのセンサーがなければ、何も認識できないからです。
自ら環境を探索したり、目的を設定したりすることはできまえん。
あくまで与えられたデータを元に計算を行う「受動的な存在」です。
つまり現時点において、AIは仕事を認識するセンサーがないので、能動的な人間からの指示を受けるしかないのです。
最新のChatGPTは、考える能力を持ち、日本の大学共通テストやアメリカのSAT(アメリカの大学進学適性試験)で高得点を叩き出しています。
特定のタスクなら、優秀な人材並みのアウトプットを出してくれます。
しかも人間なら数時間、数日かかる仕事を、ものの2〜3分で仕上げてくれます。
この実態を直視すれば、AIを活用することで普段の仕事の生産性が劇的に向上する!と感じない人はいないはずです。
生成AIは、ビジネスマンの敵ではありません。
むしろ、自己の能力を最大化してくれる「味方」なのです。
したがって、AIを味方にするための能力を我々人間が磨く必要が出てきました。
その能力を磨く、3つの習慣についてご提示したいと思います。
1.そもそも論で本質を捕まえるビジネス習慣。
単にAIに指示を出すだけでなく、AIを通じて何を達成したいのかを明確にする必要があります。
この視点を欠けば、AIが生み出す膨大なアウトプットに飲み込まれ、本質を見失う恐れがあります。
例えば、データ分析をAIに任せる場合、どのような意思決定を下すためにそのデータを活用するのかを、あらかじめ明確に定義しておく必要があります。「とりあえず分析してもらおう」と漠然とした指示を出せば、AIは期待外れの結果しか返しません。
重要なのは「問いを立てる力」です。
AIがどれほど進化しても、問いそのものを考えるのは人間の役割です。
問いを立てる力は、「そもそも論で考える習慣」から養われます。
イーロン・マスクは、問題を最も基本的な要素に分解し、そこから新たな解決策を構築することが大事だと説いています。
物理学を学んだイーロン・マスクが重視している「第一原理思考」です。
そもそも、それは何を意味しているのか?
そもそも論で問い直す能力が、AIを活用する重要な素養となっています。
2.簡単に妥協しない追求思考の習慣。
AIは、間違った答えを自信満々に出すときがあります。
「ハルシネーション(Hallucination)」と呼ばれる現象です。
技術的には、これらを解決する動きがすでに始まっており、最新モデルのChatGPTでは、かなりの改善が期待されています。
しかし、AIに頼るのではなく、指示を出す人間自らが「考える力」を持っている必要があります。
AIが出してきた「答え」に…
「もう少しこの要素を入れて考えてみて」
「そのロジックは違う。●●という法則に則ってアウトプットしてみて」
などと、指示者である人間が何となく認識できている答えに近づくまで、考え方やロジックを追加質問する能力が、的確なアウトプットを導き出すポイントになっています。
AIが出した答えが的を外していれば、我々人間は気づくことができますが、ニアイコールの場合は気づかないこともあります。
答えを鵜呑みにせず、「本当か?」「ベターな答えはいらない、ベストな答えが欲しい」という姿勢を崩さない習慣が必要です。
3.言語化能力を磨く習慣。
前述した通り、AIは仕事を認識するセンサーが、ありません。
とくに、仕事の全体像となると認識することは、想定する限りまだまだ先の話になりそうです。
となると、AIに優れたアウトプットを出させるためには、的確な命令文を入力する必要があります。
人間への指示は、曖昧であっても、なんとなく上司の意図や全体像を拾って、仕事をしてくれます。
もちろん、部下が優秀でないと、的確なアウトプットは期待できません。
でも、なんとなくそれらしいアウトプットをしてくれます。
ところが、AIは指示者の意図や全体像を咀嚼してくれません。
したがって、明確な指示命令文(プロンプト)が必要なのです。
アメリカでは、年収5000万円程度のプロンプト・エンジニアがゴロゴロいるそうですが、言語化能力は今後極めて重要な要素となることは間違いありません。
以上、3つの習慣によってAIを使い倒し、既存のリソースで、最大収益を狙うための生産性向上策は、いくらでもアウトプットすることができる時代になってきました。
これは、中小企業を取り巻く「賃上げ圧力」に対応する有効な手段ともなります。
御社では、社員にAIを使いこなし、自らの生産性を向上させるように、指示・指導していますでしょうか?