AIの理解といくつかの重要な用語
![]() |
AIにはデータサイエンティスト以外には理解しがたい多くの技術や用語が含まれています。チャットAIのユーザーは、AIの用語や関係する技術的概念の深い知識を必要としません。このシステムの会話的な性質は、専門的な知識がなくても直感的なやり取りを可能にします。チャットAIが実際に何ができるかに焦点を当てることがより重要です。 |
この本を準備するにあたって、AIについての本の著者として「責任ある」行動とは何かについて悩みました。従来のアプローチは、科学の短い説明と頻繁に使用される用語のレビューを提供することです。
私はそれをしません。
ここでは、AIの基本に関する比較的理解しやすい短い説明へのいくつかの外部リンクを提供します。
AIの未来はどうなるか?:マッキンゼー・アンド・カンパニー(2024年4月)は良い説明集を持っています。
同様に、ガートナーのGenerative AI(日付なし)も悪くありません。
FuturepediaはAI Fundamentalsのまあまあの概要を提供しています(2024年5月)。
使い方を説明したので、ここで理解しておくと価値があると思ういくつかの用語を紹介します。ソフトウェアを使うために知る必要があるわけではありませんが、この一連の用語は、現在のAIが実際にどのように機能しているかの重要な側面を参照しています。
私がこれらの用語と概念に取り組む目的は、(i)何らかの理由でAIについてもう一段深く理解したい作家や出版者、(ii)現在のAIに対する批判の文脈を理解したい人、(iii)同僚や組織がAIにどのように取り組むべきかについての戦略的な議論に貢献したい人を対象としています。
つまり、これは知る必要があることではなく、知っておくとよいことです。ここでは、アルファベット順ではなく紹介します:
プロンプトとプロンプトの作成
Chat AIソフトウェアを開いて、現在Googleで行っているように質問を入力することができます。
大規模言語モデル(LLM)
大規模言語モデルは、大量の(主に)書かれた資料を分析することで機能し、会話や文章の次に来るべき言葉や文を予測します。人間の意味で言語を「理解」するわけではなく、テキストをトークンと呼ばれる小さな単位に分解し、それを数値に変換して処理します。テキストを数値として処理し、さらに数値を生成し、それを出力時に再びテキストに変換します。これは、Chat AIが著作権で保護された作品を「含む」わけではない理由の簡略化した説明です:それは、基礎となるテキストからの巨大な抽象化を表す数値で構築されています。
LLMは、言語が通常どのように使用されるかを学習し、その理解に基づいて応答を生成します。私たちは、ほとんどの言語がどれほど予測可能であるかを過小評価しがちです。Chat AIは、既存の文学に(時には驚くほど)似たテキストを生成することができますが、設計上、特定の抜粋や著作権で保護されたテキストのコピーを取得する能力はありません。(ニューヨーク・タイムズがOpenAIに対して提訴したことを多くの方が聞いたことがあると思います。タイムズは、ChatGPTに以前に発表された記事の一部をそのまま再現させることができました。)
生成AI
この用語を理解する上で最も重要なのは、「生成」部分です。生成AIは新しいテキストを生成します。
生成事前学習型変換器(GPT)
これはここで紹介する用語の中で最もオタクっぽいもので、OpenAIによって開発された特定のタイプのLLMを指します。「生成」はテキストを作成する能力を意味し、「事前学習」は大量のテキストデータで学習されたことを示し、「変換器」はそれが使用するソフトウェアを指します。GPTが何を意味するかを知っておくことは、ChatGPTのGPTが何を表しているかを理解するために有用です。
ChatGPT
ChatGPTはユーザーが見るソフトウェアであり、GPTはその背後にあるものです。ユーザーはChatGPTを体験し、その背後にあるGPTを体験するわけではありません。前述の通り、ChatGPTは類似の機能を持つ複数のChat AIオンラインソフトウェアシステムの一つに過ぎません。
もう一つ、多くの人にとって馴染みのない用語があります:
コーパス
辞書の定義によると、コーパスは「書かれたテキストのコレクション」です(実際には必ずしもテキストではありませんが)。この用語は、GPTが訓練されるものに関連して使用されます:大量の(主に)テキストのコーパスです。最大のコーパスには数千億の単語が含まれていると言われています。一般人にはそれは理解しがたいものです。Wikipediaを膨大な数の単語を含む巨大なものとして考えませんか?Wikipediaにはわずか45億語しかありません—GPT-4は1兆をはるかに超える単語で訓練されました。
この規模を考慮することは重要だと思います。著者たちは、自分たちの本の75,000語が、大規模言語モデルに吸い込まれたのではないかと心配しています。おそらくその通りでしょう。しかし、仮にそうだとしても、今日の大規模言語モデルの総合力に対して、1冊の本が持つ価値がいかに少ないかを考えてみてください。それは本当に取るに足らないものです。取るに足らないどころか、10,000冊の本でも微々たるものです。
