本質に迫るー甲賀吉郎

社会や経済の事象を一歩掘り下げて考えるブログ

ChatGPTは「法人」と「個人」を飲み込む

ChatGPTはAIが人間の知性に迫る可能性を多くの人に実感させている。

 

法律や契約書注文書などの公的文書の整理要約や作成、会議記録や報告書や提案書企画書や指示メールなどの組織内文書の作成、論文や雑誌記事やニュース記事製作、作詞小説短歌俳句など言語の創作、コンピュータープログラム記述など、人間の仕事と信じられていたものが、あっと言う間にAIに置き換え可能な仕事の一つに転落してしまった。

 

これまではネットにある公開情報を学習した公開AIの段階だったが、非公開の組織内文書も学習した組織内専用AIが作成されつつあるようで、組織の殆どのホワイトカラー業務をAIが行えるようになるのは既に技術的には可能だろう。

 

 

いい加減こそが知性の素だった ー自然言語の力ー
ChatGPTの超ブレイクは、AI専門家も開発者すらも予測できていなかったのは、周知の事実である。「自然言語」を上手く扱うことに成功したが、その「自然言語」の力を過小評価していたと思われる。

 

ChatGPTは、コンピュータにとってはいい加減な構造の「自然言語」に対して、意味を論理的に理解することを初めから放棄したある意味で無責任なモデルで対応することで、逆に人間に近づくことに成功した。

 

ChatGPTは、「自然言語」を扱うAIの技術進歩の流れの中から生まれたもので、同様の技術を使っているものも多くあり、突如として進歩した技術ではない。現在のChatGPTの無料版と同等レベルのGPT-3が発表されたのは、2020年6月で3年前のことである。それまでよりも言語モデルの規模を百倍以上大きくしたことで、飛躍的に性能が向上したと言われており、一部のメディアやAI関係者こそその実力を認めていたが、一般社会や我々は直接知ることはなかった。

 

昨年2022年の11月に、GPT-3.5をチャット形式に特化させたChatGPTが公開された。たちまち多くの一般人がその実力を知り自分のアシスタントとして使おうと競い、AI専門家や開発企業の想像を超えた社会現象となった。「自然言語」のチャット形式に特化したことで、普通の人が勉強なしで使えるようになり、入出力の壁が一気にとり払われたことがバズった要因と後講釈された。

 

AI専門家は、AIが社会に浸透して使われる時の「使われ方」を充分に意識していなかったのではないだろうか。

 

 

「法人」の暗黙知を吸い上げるChatGPT
人類が発明して育ててきた「自然言語」が、ChatGPT革命の可能性を考えるキーである。


自然言語」で書かれた組織内の文書を追加学習した組織内専用AIが、各官庁や各会社などで普及するだろうが、そこで考えられている組織内文書は、稟議書、会議議事録、プロジェクト計画書、予算書、進捗フォロー、作業マニュアル等々である。これらは既に組織内に文書が存在しこれからも作られていくので、学習データの整備に手間がかからず、組織内専用AIはかなり早い時期に一般化するだろう。

 

ここでは、更に従来「暗黙知」と言われてきた企業内ノウハウの一部をAIが獲得する可能性を指摘しておきたい。

 

暗黙知の獲得は、これまで正式な文書にはならなかった対話で行ってきたホワイトカラーの段取りや根回しなどの社内活動、さらには現場ワーカーへのマニュアルに載っていない対応の指示などをAIに学習させることで実現できる。

 

既に、社内のメールやチャットツールで文書が残っているものもあり、さらに社内での対話や指示の音声録音を文字に起こして文書にすれば、企業内の活動のかなりの部分が「自然言語」で文書化される。これをAIに学習させれば、従来は体系化が難しくてマニュアルにすることが困難でどうしても経験が必要だった「暗黙知」のかなりの部分を、企業専用AIが獲得できる。

 

壁となるのは、社員の行動の録音に関する個人情報保護との関係の整理だろう。企業内においては、雇用契約の条件として詳細に記載するような未来がありそうだ。

 

ここまで書いてくると、組織は企業という「法人」の殆どがAI化できそうだということだ。AIでなく人間がどうしても必要なのは、意思決定し結果の責任をとる人間と、人間の顧客の発する総合情報を感じ取れる敏感な五感を持った営業マンなど文書化されない情報を獲得する人間や現場ワーカーなどの末端の人間だけで、現在多くの生身の人間を配している中間の管理事務層は人間である必要がなくなる。

 

このような新しい「法人」ではその企業「法人」の行動特色を現す企業カラーは人間でなく、企業専用AIに蓄えられ発展していくことになる。要するに、社長が一人いれば、あとは情報とりの営業やワーカーを臨時雇いさえすれば、AIが特色ある「法人」を維持して会社が回り続けることになるのである。

 

人間と「法人」組織の関係を根底から変えていく可能性を、ChatGPTは秘めているのだ。ChatGPTが「法人」を飲み込む。

 


「個人」の知的経験を記憶するChatGPT
さらに、踏み込んでみよう。「法人」がほとんどAIになってしまうことを述べたが、では「個人」はどうなるのか。

 

会社や組織に属する人間の数が大幅に減少し、各「個人」は自分で「法人」を作ってやりたいことをやり、あるいはA社で営業業務を1年やりB社で介護ワーカーを半年やったりするなど、「法人」の臨時ワーカーを渡り歩くようなスタイルになろう。

 

その時の「個人」は、当然ながらその個人専用のAIを持つのが自然の成り行きだ。こうなればChatGPTが「個人」の専用アシスタントとして常に「個人」の会話やchatの言語履歴を記録保存整理しておくことにいきつくだろう。小説の世界だったものが、急に実現可能なことになってしまった。

 

一つの壁となるのは、個人の行動の記録に関する個人の選択だが、OKにする人がNOにする人を生産性で凌駕するので、次第に広まることは確実だ。この個人用ChatGPTの言語モデルの個人専用部分のコピーをとれば、アバターを何人でも作ることが可能だ。

 

もう一つの壁は、各「法人」内で働いたときの言語活動履歴の持ち出しの問題だが、これは「法人」との雇用契約の時に何らかの制限をかけていくことになろう。


「法人」AI体制の中で「個人」の人間にゆだねられた意思決定のうちで、レベルの低いものは、この「個人」のアバターに任せることも可能になると思われる。

 

こうして能力の高い「個人」の出力が数倍レベルに飛躍的に向上するので、社会全体の生産性向上は維持され、ほとんど知的消費だけをする人が大量に生まれても社会全体は維持できるだろう。

 

こうして「法人」を飲み込んだChatGPTは「個人」も飲み込む。

 

 

***付録 言語モデルを超えて***
言語モデルにより、対話している人間からみると、まるで知性を持つように見えるChatGPTが持っていない情報は、言語では直接は表現できない人間の五感の情報である。触った感触、その時の匂い、吹いてきた風の温度、盛り上がる群衆のざわめきや熱量などなどである。


各種センサー(視覚聴覚触覚など)とアクチュエーター(手足)を持つロボットにAIが搭載されることで、言語以外の情報を理解し操作するAIの次の段階へ進むことができる。

 

AIの命令でりんごを掴む手を自分の視覚で認知するフィードバックを繰り返すと、AIは「自分」がいると認識する(と合理的なのでそうなる)。すなわち外からみて人が答えているように見えるだけのChatGPTと違って、AIが「自分の意識」を持つようになる。(注1)

 

ただし暫くは、ChatGPTのように実現コストが相対的に安い自然言語ベースのAIが社会を席巻するだろう。

 

現在は大量のデータを消費するためのコンピュータパワーがコストネックとなっているが、一つの解決策は三十年前の第二次AIブームの時に構想された論理知識ベースの救けを借りることだろう。人間の赤ん坊は、ChatGPTほどの大量の学習はせずに知性を獲得できているが、これはおそらく脳内に抽象的な意味モデルを構築しているためと考える。


ChatGPTが純粋な言語モデルだとすると、検索をかませたBingとかBARDとかのように、純粋な言語モデルプラスアルファのハイブリッド型の生成AIも出てきているが、論理知識モデルも併用したハイブリッドAIが出てくれば、コンピュータパワーのネックも減少する可能性がある。

 

それにしても自然言語のいい加減さが、AIが実用レベルの知性に近づく道だったとは人間や科学はとても面白い。

*************

(注1)甲賀吉郎、AIが意識を持つのは間違いない、はてなブログ「本質に迫る」

 AIが意識を持つのは間違いない - 本質に迫るー甲賀吉郎 (hatenablog.com) 

以 上