인공지능

[인공지능] 오픈AI, ‘보고 듣고 말하는’ 새로운 AI 모델 ‘GPT-4o’ 출시

오션지키미 2024. 5. 21. 11:00
320x100
반응형
SMALL

오픈AI, ‘보고 듣고 말하는’ 새로운 AI 모델 ‘GPT-4o’ 출시

GPT 선도자 오픈AI는 텍스트는 물론, 청각과 시각으로도 추론하고 이를 말할 수 있는 새로운 AI 모델 ‘GPT-4o’를 발표하며 다양한 시연 영상 공개(5.13)

 

* GPT-4o‘o’는 하나의 통합된 AI 모델을 의미하는 옴니모델(Omni model)’ 의미

 ‘GPT-4o’는 음성 인식, 스피치--텍스트(Speech to text), 이미지 인식 기능 등이 통합돼 대화형 인터페이스 형태로 자연스러운 실시간 상호작용이 가능한 멀티모달(Multimodal, 다중 모드) 모델

 

 아울러, 오픈AI는 구글·MS 등 경쟁사 검색엔진에 대응해 AI 기반 실시간 검색 서비스 출시도 임박한 것으로 알려져 이목 집중

 

ㅇ 구글 I/O 2024(연례개발자회의), 제미나이 앞세워 AI 생태계 확장

 구글 I/O2024에서 키노트에 등장한 순다르 피차이는 무려 121번이나 AI를 언급하며 구글 생태계에 AI를 접목해 25년 검색 역사를 AI로 탈바꿈하는 포부 구체화(캘리포니아 쇼어라인 앰피시어터(Shoreline Amphitheatre) 개최, 5.14, 현지 시간)

 AI모델 개발이나 서비스 구축에 항상 한발 앞서가는 오픈AI에 대항하기 위해 구글이 기존에 구축해 놓은 거대 생태계를 활용해 ‘AI중심 회사로 도약 목표

 AI 기반 검색엔진, 제미나이 업데이트(1.5 프로·플래시), 프로젝트 아스트라, TPU6세대 모델 트릴리움등이 주요 내용

728x90