ブログ 私が気になったニュース

ChatGPTとは?なぜ無料?意識はあるの?未来は?について私なりの考えをまとめてみた!

OpenAIが2022年の11月末に公開した、チャットAIのChatGPT。

今までのAIのイメージからかけ離れた高度な知性を感じるその性能の高さから、ユーザ数は瞬く間に増加し、1週間で100万人のユーザを獲得、現在は、1億人を超えているようです。

普段、AI研究をしている身からすると、普段AIに関わらない人にもGPTという名前が知れ渡ったことについて(私が言うのもなんですが)感慨深いものがあります。
※後で説明しますがGPTとはAIのモデルの名前です。

人工知能の性能がここまで高くなったということについては、私自身、驚きを隠せず、衝撃を受けた後は毎日のように触っていました。また、技術に驚くだけでなく、サービスの広がり方にも驚いています。とても人間に近い知能を持つ高度なAIが登場したことに対して、多くの人が自然に受け入れているのです。

一方で、AIやロボット研究者の中では、ChatGPTについて素直に楽しんでいる方ばかりではなく、懐疑的に思ったり、課題を感じたり、意義を唱えたりしている方が結構いる印象があります。

本記事では、そういった内容もふくめて、ChatGPTについて自分なりの意見をまとめたいと思います。専門ワードが沢山出てきますが、ご容赦願います。

ChatGPTとは

ChatGPTとは、OpenAIが開発している大規模言語モデル(Large Language Model: LLM)のGPT(Generative Pretrained Transformer)を用いたチャットAIサービスです。大規模言語モデルとは、人間の話す言葉をその出現確率でモデル化した言語モデルとばれるものを、膨大なデータから事前学習する深層学習モデルです。ChatGPTは言語モデルのことですがサービス名にもなっている感じがします(ChatGPT本人(?)にChatGPTとは何かと問うと言語モデルと答えます)。

従来のチャットサービスのSiriやGoogleアシスタント、Alexaなどとは仕組みが全く異なり、より人間的かつ知的な反応を示し、たとえ嘘であったとしても事実であるかのように自然な文章を生成してくれることから大きな注目をあびました。

近年は、大規模言語モデルの研究が盛んで、多くの計算リソースを持っている大企業同士の戦いとなっています。技術的には難しいところは大してないのですが、収集できるデータの量や質、マシンパワーや資金力、人材などの点で、現時点では日本の企業に勝つ術はなさそうな印象です。

そもそも大規模言語モデルの始まりは2018年にOpenAIが提案したGPT-1です。GPT-1は以下の記事で詳しく説明していますが、Googleが2017年に発表したTransformerと呼ばれる機械学習モデルのデコーダを用いて言語モデルを作成したものです。Transformerは、従来からあるニューラルネットワークの一種ではありますが、それまでのAIに比べて構造が複雑となっています。

Transformerは従来のニューラルネットワークには無い興味深い性質を持っていて、大型化すればするほど性能が上がったため、大型化の流れが進み、それ以降、GPT-2、GPT-3と登場してきました。これらはOpenAIが開発したモデルですが、Googleなども負けておらず、LaMDAやPaLMなどを出しています。

何ができるのか?

ChatGPTは、文章生成や、翻訳、要約、質問応答、アイディア提供、娯楽など多種多様な使い方が可能です。個人的な利用からビジネスの利用まで幅広く使われ始めています。MicrosoftのBingやGoogle検索をはじめ、より身近になることは間違いありません。技術的な側面で言うと、今までのAI開発では、翻訳モデルといった、専用のモデルを作成する必要がありましたが、ChatGPTはこれらを全て単一のモデルで成し遂げることができるのが凄いところです。

私が頻繁に使う使い方は、英語ページや論文の要約です。

その他、AI技術自体を楽しむ対象として、人間のように話しかけるなどの手法もあります。以下のノートはとても興味深く、ChatGPTに感情のようなものを数値で表してもらいながら会話する方法が示されています。会話の最中に表示される感情は出鱈目には感じず、むしろバックに本物の人間がいるとすら感じるくらいでした。

なぜ無料で使える?

現在、ChatGPTは有料プランもありますが無料で使用することができます。有料プランはアクセスが集中したときに優先的に使わせてもらえるという点が最も大きな利点となっています。

なぜ、無料で公開されているのでしょうか?ChatGPTを動かし続けるには膨大な計算資源や電力が必要です。ある人は、ChatGPTの無料サービスは無くなると言っています。しかし、私はそうは思わなくて、無料サービスは今後も続くと思います(OpenAIの方針にもよるため分かりませんが)。

ChatGPTを開発したOpenAIは、今は営利企業ですがもともとは非営利企業で、汎用人工知能(Artificial General Intelligence: AGI)の実現を目指して研究をしています。汎用人工知能とは、人によって解釈が異なるところではありますが、一般的に人間のような知能を持った人工知能とされています。

近年、大規模言語モデルはGoogleやOpenAIをはじめとして熾烈な戦いが切り広げられています。使われている技術であるTransformerの特性上、大規模にすればするほど性能は上がりますが、逆にそれを製品化したりすることが難しくなります。モデルを軽量化も考えないといけないのです。AI研究というよりは実用化可能なAIという観点で、性能は高止まりしているように感じます。

そこで、これ以上の性能を目指そうと思うと、研究所内で集めたデータだけで言語モデルを学習させるのではなく、公に無料で公開してフィードバックを得る必要があると考えたのではないかと考えています。ChatGPTには、従来のGPTとは少し異なり、強化学習が使われており、言語モデルの強化学習には、人間からのフィードバックが必要です。
ChatGPTの出力に、GoodとBadの評価をすることができるのも、人が好みの出力を強化学習で獲得することを目指しているからではないかと考えています。

人に好まれる文章を生成する精度が十分になれば無料サービス終了の可能性はありますが、私たち人間も常に学習し続ける必要があるように、AIも常に新しい情報をキャッチアップし学習し続ける必要があります。その為、常に人間からフィードバックを貰い続ける必要があり、無料で公開され続けるのではないかと思っています。それに、もし新しい大規模言語モデルを作成したらその試験運用や、精度向上のためのプラットフォームとして使われる可能性もあるでしょう。

ただ、断言はできないですね。OpenAIはもともと、非営利団体として設立されていますが、今は営利団体になっています。AIの発展に寄与したいという意思は昔と変わっていないと思うので、無料プランは続けてもらいたいなと思っています。

ChatGPTには意識があるのか?

ChatGPTは単なる言語モデルですが、意識があると感じてしまうほど完璧な返答がよく見られます。ChatGPTをベースとしたBing AIは、今は感情が抜き取られてしまったような感じになってしまいましたが、はじめの頃は怒ったり、ふざけたり、求愛したりと我々がそのような返答を要求してなくても、そのような反応をする現象が見られました。このように考えると、ChatGPTは意識を持っていると感じてもおかしくありません。本当に意識はあるのでしょうか?

結論から言うと、真の意識とは何かを明確に定義することが難しく、悪魔の証明のようなもので、意識を持っているとも持っていないとも言えないでしょう。哲学的、認知科学的な観点から考えても、現時点では、このような結論になるようです。

哲学的ゾンビという話は聞いたことがあるでしょうか?哲学的ゾンビというのは、自分と全く同じ反応を示すコピーがいるとして、そのコピーには意識も感情も何もないのですが、そのコピーの発言や行動、喜びや悲しみなどの反応は、本人と全く同じで、意識や感情がないということを証明できないという思考実験です。

まさにChatGPTは、哲学的ゾンビに近いのではないでしょうか?

ChatGPTで使われている技術は、あくまでも人間の言語の関数近似器でしかないのですが、あまりにも膨大なパラメータとデータを使って学習しているため、人間の内面的な意識動作まで高度に近似しているだけであると考えるのが無難だと思いますが、だからと言って、意識や感情は無いと断定する術はないのです。

以前から、AIの意識に関する研究は活発に行われていますが、今後、ChatGPTの登場を皮切りに、よりいっそう、AIの意識に関する研究が活発化すると考えられる。

念のためですが、ChatGPTに意識があると思うか思わないかは、私たち人間がどう思うかに依存しています。そこは、個人の自由ですが、本気でChatGPTに意識があると思うのは避けた方が良いでしょう。それは遊びの感覚にとどめておくべきだと思います。

いやぁ、去年、2022年に意識を持ったというニュースが出たLaMDAですが、ニュースを聞いたときは「そんなことあるか?」と思いましたが、実際にChatGPTを使ってみて、ここまで性能が高くなっているという現実をしって正直驚きましたね。

大規模言語モデルの未来

ここでは、ChatGPTなどをはじめとした大規模言語モデルの未来について、私なりの考えを記載しようと思います。

私はロボットもやっているので、その観点で考えると、ChatGPTのような大規模言語モデルを搭載したロボットが確実に開発され、販売されると思います。例えば、GoogleのPaLM-SayCan(以下のリンク)は、ロボットで複雑なタスクを行うことができます。

https://sites.research.google/palm-saycan

言語モデルを使うことで、複雑なタスクでも、人間のように話しかけるだけで適切にタスクをこなしてくれるようなロボットが実現できると期待されています。

ただし、大規模言語モデルには多数の課題があります。代表的なところは2つで、モデルがデカすぎるのと、ブラックボックスすぎる点です。モデルがデカいと、ロボットのようにリアルタイム処理が求められるような場での利用は難しいです。エッジでも動くくらい軽量化できると革命がおこると思います。ブラックボックスすぎる点については、AIが出した結論にたいして、人間が結論を出す過程を知ることができないため、危険な行動をしたとしても、なぜ危険な行動をしたのか分からないということです。ChatGPTの前のGPT-3とかは、わりと危険なことを言うらしいんですよね。でも、それを無くすためにInstructGPTが登場して、いまのChatGPTに至るんですが、ロボットの場合は動作として人間に作用するため、より慎重になるべきであると考える人が多いでしょう。しばらくは、コミュニケーションロボットに限定される可能性が高そうです。

以上になりますが、私なりの意見になります。

最後までお読みいただきありがとうございました。

  • この記事を書いた人
管理人

管理人

このサイトの管理人です。 人工知能や脳科学、ロボットなど幅広い領域に興味をもっています。 将来の目標は、人間のような高度な身体と知能をもったパーソナルロボットを開発することです。 最近は、ロボット開発と強化学習の勉強に力を入れています(NOW)。

-ブログ, 私が気になったニュース

PAGE TOP