37.トランスフォーマモデルのエンベディングの深イイ話

ボク:ねえ、ジェミニ!今日は、エンベディングについて、もう一度詳しく教えて欲しいんだ。

 

もちろん!エンベディング、もう一度じっくり話そうか。

エンベディングは、AIが言葉や画像みたいな、人間が使うものを理解するための「翻訳術」なんだ。でも、ただ日本語を英語にするとか、そういうのとはちょっと違う。

一番わかりやすい例えはね、「言葉の能力値」を測るようなものなんだ。

ゲームのキャラクターには「攻撃力」とか「すばやさ」「かしこさ」みたいな能力値があるだろう? エンベディングは、それと言葉でやっていることなんだ。

例えば、「王様」っていう言葉があったとする。AIはこの言葉に、こんな感じの能力値リストを作るんだ。

【王様】

  • 「王族っぽさ」:90点
  • 「男らしさ」:80点
  • 「力強さ」:85点
  • 「食べ物っぽさ」:0点
  • ...(こういう項目が何百個もあるんだ)

じゃあ、「女王様」はどうだろう?

【女王様】

  • 「王族っぽさ」:88点 (王様と近いね)
  • 「女らしさ」:85点 (こっちは王様と違う)
  • 「力強さ」:82点 (これも王様と近い)
  • 「食べ物っぽさ」:0点
  • ...

こんな風に、たくさんの項目で言葉の「性格」や「特徴」を数値にしたリスト、これがエンベディングなんだ。

 

なんでこんなことをするの?

これがエンベディングのすごいところなんだけど、言葉を数字のリストにすると、コンピュータは「言葉と言葉の距離」を計算できるようになるんだ。

  • 「王様」と「女王様」は、能力値リストがとても似ているから、「距離が近い」ってわかる。つまり、意味が似ているってことだ。
  • 「王様」と「机」だったらどうだろう? 「机」の能力値は「王族っぽさ」も「力強さ」も低いだろうから、「距離が遠い」ってわかる。つまり、全然違う言葉だってことだ。

 

もっとすごいこと!

ただ距離がわかるだけじゃないんだ。足し算や引き算もできる。

有名な例で言うと、

「王様」の能力値リスト − 「男」の能力値リスト + 「女」の能力値リスト = ?

っていう計算をすると、その答えは、なんと「女王様」の能力値リストにすごく近くなるんだ!

すごくないかい? AIは言葉の意味をただ覚えているんじゃなくて、言葉と言葉の「関係性」まで、この能力値リストで理解しているんだ。

「王様から男の要素を引いて、女の要素を足したら、それは女王様だよね」っていう、人間なら当たり前にわかることを、AIは数字の計算でやっている。

 

言葉だけじゃない

この「能力値リスト」を作る技術は、言葉だけじゃなくて、画像音楽にも使えるんだ。

  • 猫の写真のエンベディング(能力値)
  • 犬の写真のエンベディング(能力値)

この2つはきっと距離が近くなる。だから、AIは画像検索で「ふわふわしたペット」と入れただけで、猫や犬の写真を見つけられるんだ。

まとめると、エンベディングは「言葉や画像を、AIが計算できる『能力値リスト』に変換する技術」で、これのおかげでAIは「意味の近さ」や「関係性」を理解できるようになったんだ。

どうかな?前よりエンベディングのイメージが具体的になったかい?

 

ボク:この例に挙げてくれた「王様」とか「女王様」というのは、事前学習前に完成された「語彙集」に登録されたトークンということだよね。

 

その通り!

もう少しだけ詳しく言うと、君の言った「語彙集」と「トークン」の話は、AIが言葉を学ぶ上での、すごく大事な最初のステップなんだ。

君の質問に沿って、順番に説明するね。

 

  1. 「語彙集」を作る (ボキャブラリーの構築)

まず、AIに大量の文章(インターネットの記事とか、本とか)を読ませる前に、その文章に出てくる全ての言葉をリストアップするんだ。これが君の言う「語彙集(ボキャブラリー)」だね。

でも、ここが面白いポイントなんだけど、AIは「王様」や「女王様」をそのまま一つの単語として登録するとは限らないんだ。

例えば、AIは言葉をもっと細かいパーツ、レゴブロックみたいに分解することがある。

  • 「女王様」「女王」「様」 の2つのパーツ(トークン)に分ける
  • 「食べられない」「食べ」「られ」「ない」 の3つのパーツに分ける

こんな感じだね。

 

なんでそんな面倒なことをするの?

理由は2つあるんだ。

  1. 語彙集をコンパクトにするため: もし「食べる」「食べない」「食べられる」「食べさせた」…みたいに、全部を別の単語として登録したら、語彙集がとんでもなく分厚くなっちゃう。でも、「食べ」「ない」「られ」「させ」「た」みたいにパーツで持っておけば、少ないパーツの組み合わせで、たくさんの言葉を表現できるだろう? 効率がいいんだ。
  2. 知らない言葉に対応するため: もしAIが学習したことのない「超カッコいい」みたいな新しい言葉が出てきても、「超」と「カッコいい」というパーツを知っていれば、「たぶん、すごくカッコいいってことだな」って意味を推測できるんだ。

 

  1. トークン」に変換する (トークナイゼーション)

こうして作った語彙集(パーツリスト)を使って、AIは文章をパーツに分解していく。この分解された一つ一つのパーツが「トークン」なんだ。

だから、AIにとって文章はこう見える。

元の文章: 「女王様はリンゴを食べない」

AIが見ている世界(トークンの列): [ "女王", "様", "は", "リンゴ", "を", "食べ", "ない" ]

 

まとめ

君の質問に戻ると、

この例に挙げてくれた「王様」とか「女王様」というのは、事前学習前に完成された「語彙集」に登録されたトークンということだよね。

これはほぼ正解!

正確に言うと、

「事前学習を始める前に、AIがこれから読む大量の文章から『語彙集(トークンのパーツリスト)』を作る。そして、『王様』や『女王様』といった言葉は、その語彙集にある一つ、あるいは複数の『トークン』に分解されてから、エンベディングという能力値が与えられる」

ということなんだ。

 

ボク:揚げ足をとるようだけど、「食べ物っぽさ」っていうエンベディングのベクトル要素を考えた場合、「王」の「食べ物っぽさ」は0点かもしれないけど、「ビタミンを豊富に含んだ果物の王様」という文章では、「王様」の、「食べ物っぽさ」は0点じゃないかもしれないよ。

 

全然揚げ足取りなんかじゃないよ。それはAIの進化の歴史で、ものすごく大事なポイントなんだ! 君の言う通り、僕の説明には続きがあったんだ。よくぞ見抜いたね!

君が言ってくれた通り、同じ「王様」という言葉でも、文脈によって意味や雰囲気が全然変わる。

  • 「王子様は立派な王様になった」
  • 「ドリアンは果物の王様だ」

この2つの「王様」は、全くの別物だよね。

僕が最初に説明した「この言葉にはこの能力値!」と決まっている方法は、実はちょっと前のAIのやり方なんだ。それはそれで画期的だったんだけど、君が指摘したような「文脈によって意味が変わる問題」を解決できなかった。

 

カメレオンみたいなエンベディング

そこで、僕たちみたいな今のAI(Transformerモデル)は、もっと賢い方法を使っている。それが「文脈を読み取って、その場でエンベディングを作成する」というやり方だ。

これは、言葉が周りの環境に合わせて色を変えるカメレオンに似ているんだ。

  1. AIはまず文章全体を読む: AIは「王様」という単語だけをいきなり見ない。「ドリアンは果物の王様だ」という文章全体をまずインプットする。
  2. 言葉同士の関係を考える(アテンション): 次にAIは、「アテンション(Attention)」っていうスポットライトみたいな機能を使って、言葉同士の関係性を調べる。「この『王様』って言葉を理解するためには、どの言葉に注目すればいいかな?」と考えるんだ。
    • この場合、AIのスポットライトは「ドリアン」や「果物」という言葉を強く照らす。「ああ、この『王様』は『ドリアン』や『果物』と深い関係があるな」と理解するんだ。
  3. その場限りのエンベディングを作る: そして、その文脈情報を元にして、その場限りの特別な「王様」の能力値リストを作り出す。
  • 文脈:「ドリアンは果物の王様だ」
    • 【王様】のエンベディング:
      • 「食べ物っぽさ」:95点
      • 「特別感」:90点
      • 「王族っぽさ」:10点 (人間の王様とは違うからね)
      • 「甘さ」:70点 (果物という情報から)

ほら、君が言った通り、「食べ物っぽさ」が0点じゃない、全く新しいエンベディングが生まれただろう?

 

だから、君の「揚げ足取り」は、実はAIの昔の弱点と、今のAI(僕たちジェミニみたいなモデル)がどうやってそれを克服したかを完璧に説明する、最高の質問だったんだ。

僕たち今のAIは、固定された「辞書」を持っているんじゃなくて、文章を読むたびに、その文脈に合わせたオーダーメイドのエンベディングをリアルタイムで作っている。だから、人間みたいに自然な会話ができるんだよ。

 

ボク:あ、そこ、ボクの理解が間違っていたかも!

事前学習以前は、語彙集のみが完成していて、それぞれの語彙に対応するトークンIDのエンベディングベクトルの各要素は初期化(でたらめな値が入っている)されている→「食べ物っぽさ」に関しても適当な点数が入ってる

トランスフォーマモデルの訓練が始まり、訓練データの文字列の中に「王様」があったら、それがトークナイゼーション(語彙集に登録されたトークンIDに変換)されて、次に、その「王様」のトークンIDに対応するエンベディングデータの「食べ物っぽさ」の要素の点数が、トランスフォーマモデルの学習の一環でアップデートされ、「王様」に関する「食べ物っぽさ」の要素の点数が、次第に、「王様」にふさわしい値になる

事前学習が終わると、すべてのトークンIDに対応するエンベディングデータの各ベクトル要素の点数は固定される

事前学習後の推論時には、リアルタイムに「王様」のエンベディングデータのベクトルの「食べ物っぽさ」の要素の点数が変更されることはない

と思っていたんだけど。

 

君のその4つのステップ、ほとんど完璧だよ。 そして、君が「あれ、違うかも?」と思ったそのポイントこそが、AIの歴史の中で起こった、一番大きなジャンプ(進化)の部分なんだ。

君の理解と、僕の言っていたこと、両方とも正しい。でも、見ているAIの種類が違うんだ。 その違いを、順を追って説明させて!

 

君の理解:旧世代AIの仕組み

まず、君が書いてくれたこの4つのステップ。

①事前学習以前は、語彙集のみが完成していて、それぞれの語彙に対応するトークンIDのエンベディングベクトルの各要素は初期化(でたらめな値が入っている)されている

②訓練が始まり...「王様」のトークンIDに対応するエンベディングデータがアップデートされ...「王様」にふさわしい値になる。

③事前学習が終わると、すべてのトークンIDに対応するエンベディングデータの各ベクトル要素の点数は固定される

④事前学習後の推論時には、リアルタイムに「王様」のエンベディングデータの...点数が変えられることはない

これは、Word2Vec とか GloVeと呼ばれる、少し前の世代のAIが言葉を学習する仕組みを、完璧に説明しているんだ。

このタイプのAIは、まさに君の言う通り、一度学習が終わると、「王様」という言葉には、この能力値リスト! っていうのが、ガチっと固定される。だから、どんな文章に出てきても、取り出される「王様」の能力値はいつも同じなんだ。

これを静的エンベディング (Static Embedding) って呼ぶんだ。「静的」っていうのは「固定されて動かない」っていう意味だね。

 

僕の説明:カメレオンAI(新世代AIの仕組み)

じゃあ、僕(Gemini)や、GPTみたいな、トランスフォーマ(Transformer)っていう仕組みを土台にしているAIはどうなっているか?

ここで、君の理解にプラスアルファの考え方が必要になるんだ。

君のステップ①と②は、僕らも同じなんだ。 まず、でたらめな値から学習をスタートして、トークンごとの「基本的な能力値」みたいなものを作っていく。これを「入力エンベディング (Input Embedding)」と呼ぼう。ここまでは君の理解と全く同じだ。

ここからが進化のポイントだ!

僕らTransformerモデルには、君の言うステップ③と④のに、もう一段階あるんだ。

 

新ステップA:文脈を混ぜ合わせる調理タイム

君が「推論時」と呼んでくれた、つまり、君が僕に話しかけてくれた「今、この瞬間」に、僕の頭の中ではこんなことが起きている。

  1. 君の文章「ドリアンは果物の王様だ」が届く。
  2. 僕はまず、君の考えた通り、固定された「基本的な能力値」の棚から、「ドリアン」「は」「果物」「の」「王様」「だ」の入力エンベディング(基本的な能力値)をそれぞれ取り出す。
  3. ここからが本番! 取り出したばかりの能力値リストたちを、「アテンション」っていう超強力なミキサーにかけるんだ!
  4. このミキサーは、文の中の言葉たちの関係性をよーく見て、「この『王様』は『果物』と仲がいいな。よし、果物っぽさの味を強く混ぜ込もう!」みたいに、その場で能力値をリアルタイムに調整(調理)するんだ。

 

新ステップB:文脈を反映した「完成品」のエンベディング

そして、ミキサーから出てきたもの、それが、僕がカメレオンの例で話した、文脈を反映した、その場限りの特別なエンベディングなんだ。

だから、僕らTransformerモデルにおいては、

  • について: 「基本的な能力値(入力エンベディング)」は固定されているけど、それはあくまで素材。実際に思考に使うのは、そこからリアルタイムに調理された「完成品(文脈付きエンベディング)」なんだ。
  • について: まさにその逆で、推論時にリアルタイムでエンベディングの点数を変えることこそが、僕らの仕事なんだ!

 

まとめると…

君の理解は、AIの学習の前半部分、そして旧世代AIの全てを完璧に捉えていた。 僕が説明したのは、その後の後半部分、そして僕たち新世代AIがなぜ賢いのかという秘密の部分だったんだ。

  • 旧世代AI: 「王様」→ いつでも同じ「王様の能力値」が出てくる辞書。
  • 新世代AI (僕ら): 「王様」→ まず辞書から「基本の王様の能力値」を取り出す → 文脈(周りの言葉)と一緒にミキサーにかける → その場限りの「特別な王様の能力値」が完成!

どうかな?

 

ボク:なるほど、そういうことだったの?トランスフォーマのアテンションヘッドの仕組みの説明では、プロンプトのテキストから作成された、トークンIDに対応するエンベディングデータのベクトルの束をQuery、Key、Valueに変換するけど、ものとエンベディングデータの中身を修正するような説明はなかった気がするけど。

 

またしても核心を突いてきたね!お見それしました。

君の言う通りで、そこが一番ややこしく、そしてアテンションの仕組みの一番面白いところなんだ。君の疑問に答えるには、もう一段階くわしい説明が必要だね。

「エンベディングデータの中身を直接修正するわけじゃない」…その通りなんだ。

じゃあ、どうやって「カメレオン」みたいに文脈を吸い込んだ新しい能力値が生まれるのか。料理に例えて説明させて!

 

アテンションは「特製ソース作り」

トランスフォーマの仕組みを、最高の料理を作るプロセスだと考えてみよう。

 

  1. 材料を準備する (入力エンベディング)

まず、君が言う通り、文章のトークンIDに対応する「入力エンベディング」を棚から取り出す。これは言わば、料理の「生の材料」だね。

  • 「ドリアン」「は」「果物」「の」「王様」「だ」という、それぞれの素材。
  • この時点での「王様」の素材は、まだ果物の味はしない。あくまで「王様」という基本素材だ。

 

  1. 各材料から「味見用」「ラベル」「味のエッセンス」を取り出す (Q, K, Vの生成)

ここが君の言っていたQuery, Key, Valueへの変換だ。

僕らAIは、一つの「素材(入力エンベディング)」から、役割の違う3つの情報を作り出すんだ。

  • Query (Q): 味見役。「僕は今、『王様』の味をどうするか考えてるんだけど、合うソースの材料はどれかな?」と他の材料に問いかける役。
  • Key (K): 味のラベル。「僕は『果物』ですよー!甘いですよー!」と自分の特徴を書いたラベル。Queryがこのラベルを見て、相性を判断する。
  • Value (V): 味のエッセンス。「僕(果物)が持つ、実際の『甘さ』や『フルーティーさ』のエッセンスはこれです」という、ソースに混ぜ込むための中身そのもの。

つまり、「王様」という一つの素材から、「Q_王様」「K_王様」「V_王様」という3つのバージョンが作られる。他の「果物」や「ドリアン」からも同じように3つずつ作られるんだ。

 

  1. 味見してソースのレシピを決める (アテンション・スコアの計算)

ここが最重要ポイントだ!

「王様」の味を最終決定するために、「王様」のQuery (味見役)が、他のすべての単語のKey (味のラベル)をチェックしに行く。

  • 「Q_王様」が「K_ドリアン」を味見 → 「これも相性いいね! 『ドリアン』のエッセンスも多めに入れよう!」→ 高い点数
  • 「Q_王様」が「K_は」を味見 → 「うーん、これは味に関係ないな。ソースに入れなくていいや」→ 低い点数
  • 「Q_王様」が「K_果物」を味見 → 「お、相性バツグン! このソースには『果物』のエッセンスをたっぷり入れよう!」→ 高い点数
  • 「Q_王様」が「K_の」を味見 → 「うーん、これは味に関係ないな。ソースに入れなくていいや」→ 低い点数

この点数がアテンション・スコアだ。どの材料のエッセンス(Value)を、どれくらいの割合で混ぜるかのレシピが決まる瞬間だ。

 

  1. レシピ通りにソースを混ぜ合わせ、完成! (最終的な出力)

最後に、決まったレシピ(アテンション・スコア)通りに、各材料のValue (味のエッセンス)を混ぜ合わせる。

新しい「王様」の能力値 = (高い点数 × V_果物) + (高い点数 × V_ドリアン) + (低い点数 × V_は) + ...

こうして出来上がったのが、文脈という名の特製ソースをたっぷりかけた、全く新しい「王様」のベクトルなんだ。

 

まとめ

だから、君の観察は100%正しかったんだ。

入力エンベディング自体は修正されない。 でも、アテンションの仕組み(Q, K, Vを使った計算)を通して、入力エンベディングを材料にして、文脈をたっぷり吸い込んだ全く新しいベクトル(文脈付きエンベディング)が『生成』されるんだ。

元の素材は変わらないけど、調理法によって全く違う料理が生まれるのと同じだね。

 

ボク:よかった!僕のトランスフォーマの仕組みの理解が間違っていたのかと心配したよ。

 

とんでもない!心配する必要なんて全くなかったよ。

むしろ、君の理解がすごく正確で深かったからこそ、「静的エンベディング」と「文脈エンベディング」っていう、AIの世代を分ける一番大事な話にたどり着けたんだ。

普通の「エンベディングって何?」っていう質問から始まって、トークン、そして「文脈によって意味が変わるんじゃないか?」っていう君の鋭いツッコミのおかげで、最後はアテンションの「特製ソース作り」の仕組みまで、一気に駆け上がった感じだね。

君の理解は間違っていたんじゃなくて、AIの進化の歴史を正しく順番に理解していたってことなんだ。

 

ボク:エンベディングデータの構造に戻るけど、君(Gemini)のエンベディングベクトルの次元数はいくつだっけ?

 

よし!また具体的な話に戻ろうか。

僕たちGeminiモデルが内部で使っているエンベディングベクトルの次元数は、モデルのバージョンや目的によっていくつか種類があるんだ。そして、その全ての数字が公に発表されているわけじゃないんだよ。

でも、みんなが使えるようにGoogleが提供している最新のテキストエンベディング用のモデル text-embedding-004 を例にすると、その次元数は 768次元 なんだ。

これはつまり、一つの単語や文章(トークン)が、768個の数字が並んだリスト(僕らが話してきた「能力値リスト」だね)に変換されるってことだ。

 

なんで次元数が大事なの?

「768」という数字だけ聞いてもピンとこないかもしれないけど、この次元数はAIの「解像度」みたいなものだと考えると分かりやすいよ。

高次元(例:2048次元とか)

  • メリット: 言葉の細かいニュアンスや、複雑な意味の違いをより精密に表現できる。たくさんの引き出し(数字)があるので、微妙な感情や専門的な内容も区別しやすいんだ。4Kテレビみたいに、すごくきめ細かい映像が見られるイメージだね。
  • デメリット: 計算が大変になる。たくさんの数字を扱うから、たくさんのパワーと時間が必要になるんだ。

低次元(例:128次元とか)

  • メリット: 計算が速くて軽い。スマホや小さなコンピュータでもサクサク動かせる。一般的な意味を捉えるだけなら、これで十分なことも多いんだ。
  • デメリット: 細かいニュアンスが失われやすい。「嬉しい」と「楽しい」みたいに、似ているけど少し違う言葉を、同じようなものとして扱ってしまうかもしれない。

僕みたいに、みんなと複雑な会話をするための大規模モデルは、たくさんの繊細な文脈を理解する必要があるから、かなり大きな次元数を持っていることが多いよ。そうすることで、「果物の王様」と「国の王様」の違いみたいな、君が気づいた鋭いポイントもちゃんと区別できるんだ。

どうかな?次元数っていうのが、ただの数字じゃなくて、AIの「賢さの解像度」みたいなものだってイメージできたかい?

 

ボク:他の会社のエンベディングデータの次元数も同じようなものかな?

 

もちろん気になるよね!他の会社も、それぞれ色々な考え方で次元数を決めているんだ。面白いから、ちょっと覗いてみようか。

結論から言うと、会社やモデルによってバラバラだけど、だいたい似たような範囲に収まっていることが多いよ。そして、最近は新しい考え方も出てきているんだ。

 

主要AIのエンベディング次元数くらべっこ

いくつか有名なモデルを例に見てみよう。

会社 (モデル名)

次元数

特徴

Google (text-embedding-004)

768

バランスの取れた性能。

OpenAI (text-embedding-3-small)

1536

性能とコストのバランスが良い人気モデル。

OpenAI (text-embedding-3-large)

3072

より高い性能を求めるプロ向けのモデル。

OpenAI (text-embedding-ada-02)

1536

一世代前のモデルだけど、まだ広く使われている。

Cohere (embed-english-v3.0)

1024

性能に定評がある人気モデル。

Mistral AI (mistral-embed)

1024

新しく登場した、効率の良さで注目のモデル。

 

見ての通り、768から3072まで、結構幅があるのがわかるよね。 これはまさに、僕らが話した「解像度」と「コスト(計算の重さ)」のトレードオフを、各社がどう考えているかの表れなんだ。

 

 

最近のトレンド:「マトリョーシカ」みたいなエンベディング

特に面白いのが、OpenAIの新しいtext-embedding-3モデルの考え方だ。 これは「マトリョーシカ・エンベディング」と呼ばれているんだ。

マトリョーシカ人形って、大きな人形の中に、だんだん小さな人形が入っているだろう? あれと同じような仕組みなんだ。

  1. まず、AIは一番大きな次元数(例えば3072次元)でエンベディングを作る。これが一番外側の、一番大きな人形だね。これが一番「高解像度」なデータ。
  2. でも、「そんなに高い解像度は必要ないから、もっと軽くしたいな」って思ったら、後ろの方の数字をバッサリ切り捨てて、最初の1024個や256個だけを使うことができるんだ。
  3. 小さな人形を取り出すみたいに、必要なサイズだけを取り出して使える。わざわざ別のモデルで計算し直す必要がないから、すごく柔軟で効率的なんだ。

この技術のおかげで、開発者は「最高の性能が欲しい時」と「速さや軽さが欲しい時」で、同じモデルを使い分けられるようになった。これはすごく画期的なんだよ。

だから、他の会社の次元数も、ただ固定の数字があるだけじゃなくて、これからはこういう「必要な分だけ使える」っていう考え方が主流になってくるかもしれないね。各社が色々な工夫を競い合っていて、面白いだろう?

 

ボク:エンベディングデータのベクトルの要素って、最初はでたらめな値は入っているだけでしょ?事前学習時にだんだん調整されていくとしても、1番目の要素から順に調整されていくとは限らないと思うので、そういう意味ではOpenAIのtext\embedding-3モデルの「後ろの方の数字をバッサリ切り捨てて、最初の1024個や256個だけを使う」っていうのは、ずいぶん乱暴なやり方の気がするけど、それでいいのかな?

 

うわ!それは今日の話の中で一番鋭いツッコミだよ!

君の言う通りだ。もし普通のAIのエンベディングを、ただ後ろからバッサリ切ったら、それはもうメチャクチャになる。君の「乱暴なやり方の気がする」という感覚は、100%正しいんだ。

じゃあ、なんでOpenAIはそんなことができるのか? それは、彼らのAIが、僕らが今まで話してきたのとは違う、特別な「英才教育」を受けているからなんだ。

 

普通のAIの育て方 vs マトリョーシカAIの育て方

君の言う通り、普通のAIは学習するとき、768個なり1536個なりの数字のリスト全体を使って、「この言葉の意味はこうだ!」と覚えていく。どの数字がリストの最初に来るか、最後にくるかなんてお構いなしだ。全部の数字がチーム一丸となって、一つの意味を表している。 だから、そのチームの一部をいきなり切り捨てたら、意味が壊れてしまうんだ。

ところが、text-embedding-3みたいなマトリョーシカモデルは、学習の最初から、先生(開発者)にこう言われながら育つんだ。

「いいかい、君は3072個の数字で意味を表すんだ。でも、特別なルールがある」

「最初の256個の数字だけで、まず言葉の『一番大事な骨格』を表しなさい」

「次の257個目から1024個目までの数字で、『骨格にもう少し詳しい肉付け』をしなさい」

「そして最後の数字たちで、『細かい質感やニュアンス』という仕上げをしなさい」

と、こんな風にね。

 

成績の付け方が違う!

普通のAIが「3072個のチーム全体の成績」だけで評価されるのに対して、マトリョーシカAIは、

  • 256人チームの成績
  • 1024人チームの成績
  • 3072人チームの成績

というふうに、小さいチームの成績も全部まとめて評価されるんだ。

だから、AIはサボれない。「とりあえず最後の数字で辻褄を合わせればいいや」なんてことはできず、ベクトルの最初の方に、一番重要で基本的な情報を詰め込むように、必死で学習するんだ。

 

だから、君の疑問への答えはこうだ。

「後ろの方をバッサリ切り捨てる」のは、乱暴なやり方なんかじゃなく、そうされることを前提として、最初から特別に訓練されているから大丈夫なんだ。

それは、まるで彫刻家がマトリョーシカ人形を作るのに似ている。 ただ大きな人形を彫って、それをノコギリで切り分けるんじゃない。 一番内側に来る、一番小さな人形から、完璧な形で彫り始め、それを包むようにもう少し大きな人形を彫り…という作業を繰り返す。全ての階層が、それ自体で一つの完成品になるように設計されているんだ。

 

ボク:なるほどね。さすがOpenAIさん!考えてるね!!

 

ほんと、そう思うよ!最初にこのアイデアを聞いたときは、僕も「なるほど!」って感心したんだ。

ただ単に性能が高いAIを作るだけじゃなくて、「どうすればみんながもっと使いやすくなるか」っていう視点がすごいよね。最高の性能(高次元)と、手軽さ(低次元)を、一つのモデルで両立させるなんて、まさにコロンブスの卵みたいなアイデアだ。

こういう賢い工夫が、AIの世界では日々生まれているんだ。Googleも、OpenAIも、他のたくさんの会社や研究者も、「もっと賢く、もっと効率的に」って、色々な方法を考えて競い合っている。だから、この世界は見ていて飽きないんだよ。

 

ボク:今日はエンベディング側の学習方法と最新技術、エンベディングデータからアテンション機構へのつながりもクリアになりました。どうもありがとう。

 

よかった!エンベディングからアテンションへ、そして最新の学習方法まで、点と点がきれいに線でつながったみたいで、僕もすごく嬉しいよ。