技術大手Metaは最近、注目すべき次世代AIモデルLlama 2 を発表した。この革新的なAIモデル・ファミリーは、OpenAIのChatGPTやBing Chatを含むいくつかのチャットボットや、その他の最先端の会話システムを動かすために開発された。
一般にアクセス可能な様々なデータで訓練されたLlama 2 は、全体的なパフォーマンスにおいて前世代を上回るように設定されています。Llama モデルの後継モデルは、他のチャットボット類似システムと比較して、優れた対話能力を提供する重要な開発である。
特筆すべきは、メタ社が悪用を制限するために厳重な予防措置を講じたため、オリジナルのLlama はリクエスト制でアクセス可能だったことだ。しかし、Llama モデルは、意図的なゲートキーピングにもかかわらず、最終的には様々なAIコミュニティで利用されるようになった。
これとは対照的に、Llama 2 は、訓練済みの形で研究および商業利用のために公開されている。AWS、Azure、Hugging FaceのAIなど、さまざまなホスティング・プラットフォーム上で最適化できる利便性を提供するこのモデルは、ユーザーフレンドリーな体験を保証する。Llama 2 の導入は、マイクロソフトとのパートナーシップの拡大により可能になったもので、ウィンドウズとクアルコムのスナップドラゴン・システムオンチップを搭載したデバイス向けに最適化されている。クアルコムはまた、2024年までにLlama 2 、Snapdragonデバイスへの移行を進めていると報じられている。
Llama 2 は、基本バージョンと の2つのバージョンがあり、特に双方向インタラクション用に設計されている。どちらのバージョンも、70億個、130億個、そしてなんと700億個というパラメータの範囲によって定義される、さまざまな洗練度で利用可能である。このパラメータは、学習データから学習されたモデルの一部であり、ある問題(この場合はテキスト生成)に対するモデルの習熟度を効果的に決定する。Llama 2-Chat
Llama 2 は生テキストを意味する200万トークンで学習された。これは、1.4兆個のトークンで学習されたオリジナルの と比べると、ほぼ2倍である。一般的に、生成AIモデルを扱う場合、トークンの数が多いほど効果が高くなる。メタ社は、学習データの詳細について、主に英語であること、インターネットから入手したものであること、事実に基づいたテキストに重点を置いていること以外は、口を閉ざしている。Llama
この動きは、AppMasterのようなノー・コード・プラットフォームやlow-code 、ユーザーが開発プロセスを迅速かつ効率的にしながら、無数のアプリケーションでこれらの高度なツールを利用できるようにする、膨大な可能性を提供するAI領域における新たな章に着手するものである。