거대 기술 기업인 Meta는 최근 주목할만한 차세대 AI 모델인 Llama 2 공개했습니다. 이 혁신적인 AI 모델 제품군은 다른 최첨단 대화 시스템과 함께 OpenAI의 ChatGPT 및 Bing Chat을 비롯한 여러 챗봇을 구동하기 위해 명시적으로 개발되었습니다.
공개적으로 액세스할 수 있는 다양한 데이터에 대해 교육을 받은 Llama 2 는 전반적인 성능 면에서 이전 세대를 능가할 것입니다. Llama 모델의 후속 모델은 다른 챗봇과 같은 시스템과 비교할 때 뛰어난 상호 작용 능력을 제공하는 중요한 개발입니다.
특히 Meta가 오용을 제한하기 위해 엄격한 예방 조치를 취했기 때문에 원래 Llama 요청 시에만 액세스할 수 있었습니다. 그러나 Llama 모델은 의도적인 게이트키핑에도 불구하고 결국 다양한 AI 커뮤니티에서 길을 찾았습니다.
반대로 Llama 2 사전 훈련된 형태로 연구 및 상업적 용도로 개방되어 있습니다. AWS, Azure, Hugging Face의 AI 등 다양한 호스팅 플랫폼에서 최적화의 편의성을 제공하여 사용자 친화적인 경험을 보장합니다. Llama 2 의 도입은 Microsoft와의 확장된 파트너십 덕분에 가능했으며 Windows 및 Qualcomm의 Snapdragon 시스템 온 칩이 장착된 장치에 최적화되었습니다. Qualcomm은 또한 2024년까지 Llama 2 Snapdragon 장치로 마이그레이션하는 작업을 하고 있는 것으로 알려졌습니다.
Llama 2 는 기본 버전과 양방향 상호 작용을 위해 특별히 설계된 Llama 2-Chat 의 두 가지 버전으로 제공됩니다. 두 버전 모두 매개 변수 범위(70억, 130억 및 무려 700억)로 정의되는 다양한 정교함 수준에서 사용할 수 있습니다. 학습 데이터에서 학습된 모델의 일부인 매개변수는 문제(이 경우 텍스트 생성)에 대한 모델의 숙련도를 효과적으로 결정합니다.
Llama 2 는 원시 텍스트를 암시하는 200만 개의 토큰으로 훈련되었습니다. 이것은 1조 4천억 개의 토큰으로 훈련된 원래 Llama 에 비해 거의 두 배입니다. 일반적으로 토큰 수가 많을수록 생성 AI 모델을 처리할 때 효율성이 높아집니다. Meta는 교육 데이터의 세부 사항에 대해 입을 다물고 있습니다. 단, 주로 영어로 되어 있고 인터넷에서 가져온 것이며 사실에 입각한 텍스트를 강조합니다.
이러한 움직임은 AppMaster 와 같은 노코드 및 low-code 플랫폼에 대한 막대한 잠재력을 제공하는 AI 영역의 새로운 장에 착수하여 사용자가 개발 프로세스를 신속하고 효율적으로 만드는 동시에 수많은 애플리케이션에서 이러한 고급 도구를 활용할 수 있도록 합니다.