본문 바로가기
이슈 모아

새로운 AI 모델 GPT-4o 개발, 처리속도 2배 고속화

by 동네e장 2024. 5. 14.
반응형

 

gpt 프레젠테이션

오픈AI는 13일(현지 시각) 새로운 AI 모델 GPT-4o를 발표했습니다. 이 모델은 기존 챗GPT 기술을 대폭 개선한 것으로, 처리 속도가 2배 빨라지고 운용 비용은 절반으로 줄어들었습니다. 'GPT-4o'는 '옴니(omni)'의 앞글자에서 따왔으며, '모든'을 의미합니다. 이번 기술 발표는 2023년 11월에 출시된 GPT-4 터보 이후 처음입니다.

 

처리 속도 2배, 운용 비용 절반

GPT-4o는 종전 모델에 비해 처리 속도가 두 배로 빨라졌습니다. 이로 인해 더 빠른 응답과 실시간 상호작용이 가능해졌습니다. 또한, 운용 비용이 절반으로 줄어들어 더 경제적인 AI 활용이 가능해졌습니다. 이러한 기술적 향상은 AI의 반응 지연 문제를 극복하고, 더 많은 분야에서 AI가 사용될 수 있는 가능성을 열어줍니다.

다른 ai와의 비교

50개국 언어 지원 및 멀티모달 기능

GPT-4o는 50개국 언어를 지원하며, 텍스트, 이미지, 음성을 모두 인식합니다. 이를 통해 실시간 번역은 물론, 스마트폰 카메라를 이용해 사람의 얼굴 표정을 읽거나 그래프를 해석할 수 있습니다. 이 모델의 음성 반응 속도는 빠른 경우 232밀리초, 평균 320밀리초로 사람과 대화할 때와 같은 수준을 구현했습니다.

gpt4-o 시연

자연스러운 대화와 실시간 응답

이번 발표회에서는 GPT-4o의 자연스러운 대화 능력이 강조되었습니다. 사용자가 챗GPT에 말을 걸면 지연 없이 실시간으로 응답하며, 다양한 목소리와 감정, 톤으로 이야기를 들려줄 수 있습니다. 예를 들어, 스마트폰 카메라를 통해 주변 환경을 보여주면 AI가 이를 분석하고 대화를 이어가는 시연이 있었습니다.

 

새로운 사용자 인터페이스

GPT-4o는 사용 편의성 측면에서 큰 진전을 이루었습니다. 웹 발표회에서 개발자는 챗GPT에 음성으로 취침 전 몸을 돌리는 모습으로 이야기를 읽어달라고 요청했고, AI는 목소리의 톤을 극화조로, 노래하면서 읽는 등의 다양한 방식으로 응답했습니다. 이러한 인터페이스는 사용자 경험을 크게 향상시킬 것으로 기대됩니다.

실생활에서의 응용 사례

GPT-4o는 교육 분야에서도 큰 가능성을 보여줬습니다. 종이에 적힌 수학 방정식을 단계별로 풀어주는 시연이 있었고, 실시간 번역 기능도 제공되었습니다. 발표를 맡은 미라 무라티 CTO가 이탈리아어로 말을 걸면 AI는 영어로 변환한 다음 영어로 응답했습니다. GPT-4o는 사람의 얼굴 표정을 읽고 감정을 인식할 수 있습니다. 스마트폰 카메라를 통해 사용자의 표정을 분석하고, "행복해 보인다"는 등의 응답을 하기도 합니다. 이러한 능력은 AI가 더 인간적인 상호작용을 할 수 있게 합니다.

 

앞으로의 계획과 전망

무료 및 유료 사용자 지원 : 오픈AI는 GPT-4o를 무료 버전의 챗GPT 3.5 사용자에게도 제공할 계획입니다. 유료 사용자(챗GPT4.0, 월 20달러)는 무료 이용자보다 5배 많은 질문을 할 수 있습니다. 몇 주 내에 이 기능이 모든 사용자에게 공개될 예정입니다.

 

지속적인 업데이트와 확장

미라 무라티 CTO는 "사용 편의성 측면에서 큰 진전을 이룬 것은 이번이 처음이다"라고 평가하며, 앞으로도 지속적으로 새로운 기능과 영역을 개척할 계획임을 밝혔습니다. 오픈AI의 목표는 매우 유능한 AI 도구를 사람들에게 무료 또는 저렴한 가격으로 제공하는 것입니다.

결론

오픈AI의 새로운 AI 모델 GPT-4o는 처리 속도와 사용 편의성에서 큰 진전을 이루며, AI 기술의 새로운 가능성을 열었습니다. 다양한 언어 지원과 멀티모달 기능, 자연스러운 대화 능력 등은 AI가 우리 삶에 더욱 밀접하게 활용될 수 있는 길을 열어줍니다. 앞으로 GPT-4o가 어떻게 우리의 일상과 다양한 산업 분야에 영향을 미칠지 기대됩니다.

 

반응형