메타, LLaMA 4 공개로 멀티모달 AI 경쟁에 본격 참전
반응형

메타, LLaMA 4 공개로 멀티모달 AI 경쟁에 본격 참전
— 이제 AI는 ‘말도 하고, 그림도 읽는다’
메타가 발표한 LLaMA 4는 텍스트와 이미지를 동시에 이해하고, 그 안에서 연관된 개념을 추론할 수 있는 멀티모달 AI 모델이다. 단순한 ‘이해’를 넘어, 질문에 대한 논리적 분석과 대화 유지 능력까지 겸비했다.

주요 기능 및 특징
- 텍스트 + 이미지 통합 처리
단순한 객체 인식을 넘어, 배경, 감정, 의도까지 해석한다. AI가 ‘보는 것’을 ‘이해’하는 수준에 다가가고 있다. - 베타지만 강력한 퍼포먼스
아직은 정식 버전이 아니지만, 이미 다양한 실험 환경에서 높은 성능을 입증 중이다.
LLaMA Chat의 발전
- 멀티 앵글 응답
하나의 질문에 대해 여러 관점으로 분석해주는 기능. - 장기 대화 기억력
이전 맥락을 유지하며 자연스럽게 대화를 이어가는 능력이 강화되었다.
오픈소스 공개로 생태계 확대
LLaMA 4는 Hugging Face, PyTorch, Docker 등 주요 플랫폼에서 활용 가능하며, 연구자 및 개발자 누구나 접근할 수 있도록 오픈소스로 제공된다.
반응형
'AI 소식' 카테고리의 다른 글
ChatGPT에 메모리 기능 제공 (0) | 2025.04.15 |
---|---|
아마존, '노바 소닉' 음성 AI의 기준을 다시 쓰다 (0) | 2025.04.15 |
구글, 제미나이 Live에 실시간 영상 기능 업그레이드 (0) | 2025.04.12 |
어도비, 프리미어 프로에 AI 영상 확장 기능 ‘Generative Extend’ 도입 (0) | 2025.04.11 |
앤트로픽, 교육용 AI ‘클로드 포 에듀케이션’ 출시 (0) | 2025.04.09 |
댓글