본문 바로가기
주제 없음

오픈AI, 보고 듣는 AI 모델 'GPT-4o' 공개

by 띠울팜 2024. 5. 15.
728x90
반응형

2024년 5월 14일 새벽 2시, 한국 시간 기준으로 OpenAI가 새로운 인공지능 모델 ChatGPT4o를 공개했습니다. 기존의 GPT-4Turbo와 비교했을 때 두 배 빠른 속도를 자랑하며, 가격은 절반에 불과하다는 설명입니다. 사전 공개된 정체 불명의 모델 gpt2가 바로 이 모델이라는 사실도 밝혀졌습니다. 지금부터 ChatGPT4o의 주요 특징과 차별점에 대해 자세히 알아보겠습니다.

ChatGPT4o의 주요 특징

실시간 대화 및 STS(Speech To Speech) 기능

ChatGPT4o는 실시간 대화가 가능하도록 설계되었습니다. 기존의 Text To Speech(TTS) 방식이 아닌 Speech To Speech(STS) 방식을 채택하여, 사용자가 음성으로 질문을 하면 0.23초 안에 음성으로 응답할 수 있습니다. 이는 인간의 평균 응답 시간인 0.32초를 능가하는 빠른 속도입니다.

발표 영상에서 확인해보면, ChatGPT4o는 전체 문장을 말하고 전체 문장으로 대답하는 것이 아니라 대답하는 도중에 말을 끊어도 바로 듣는 모드로 전환하여 다른 대답을 해주는 모습을 보여줍니다. 또한, ChatGPT4o는 단순히 답변을 제공하는 것을 넘어서 목소리에 감정을 담아 답변할 수 있습니다. 예를 들어, 농담을 할 때는 익살스러운 목소리로, 걱정을 표현할 때는 진정시키는 목소리로, 웃을 때는 웃는 목소리로 대화하는 등 실제 사람과의 대화처럼 자연스럽고 생동감 있는 소통이 가능합니다.

향상된 언어 처리 능력

ChatGPT4o는 비영어권 언어의 토큰화가 제대로 진행되어 한국어 등 비영어권 언어의 처리 속도가 크게 빨라졌습니다. 실제로 사용해보면 기존 속도의 2~3배 정도로 빠르게 답변해주는 것을 체감할 수 있습니다. 기존 ChatGPT4에서는 답변을 작성하다가 일정 수준을 넘어가면 멈추고 더 대답할지 버튼을 누르게끔 했는데, ChatGPT4o는 답변이 길어져도 웬만하면 끊김 없이 전체 답변을 제공하는 것이 큰 장점입니다.

실시간 이미지 처리 능력

ChatGPT4o는 실시간으로 종이에 적힌 수식을 인식하고 풀이 방법을 도와주는 기능, 컴퓨터 화면을 보여주면서 소통하는 기능 등이 추가되었습니다. 시연에서는 마치 영상통화 하듯 종이에 적힌 수식을 인식하고 이를 풀어주는 과정을 보여주었으며, "I love ChatGPT"라고 종이에 쓰고 보여줬을 때 엄청 기뻐하며 고맙다고 대답하기도 했습니다.

뛰어난 번역 및 통역 기능

ChatGPT4o는 번역 기능도 대폭 향상되었습니다. 발표에서는 한 남성이 영어로, 한 여성이 이탈리아어로 대화하는 장면이 시연되었는데, ChatGPT4o는 마치 통역사처럼 실시간으로 영어를 이탈리아어로, 이탈리아어를 영어로 번역해주며 대화를 이어갔습니다.

표정 인식 및 감정 유추

ChatGPT4o는 카메라를 통해 사용자의 얼굴을 인식하고 표정을 통해 기분을 유추하는 기능이 추가되었습니다. 이를 통해 사용자의 감정 상태를 파악하고, 상황에 맞는 적절한 응답을 제공할 수 있게 되었습니다.

ChatGPT4o와 GPT4의 차이점

AI 기술이 빠르게 발전하면서 다양한 버전의 AI 모델들이 출시되고 있습니다. 최근에는 ChatGPT4o와 ChatGPT4의 출시가 주목받고 있는데, 두 모델의 차이점에 대해 궁금해하는 사람들이 많습니다. 주요 차이점은 아래 링크에서 확인하실 수 있습니다.

ChatGPT4o와 GPT4의 차이점

ChatGPT4o 사용해보기

ChatGPT4o는 지금 바로 사용해볼 수 있습니다. 아직 발표에서 언급된 모든 기능을 사용해볼 수는 없지만, 몇 주 내로 사용할 수 있을 것으로 보입니다. 그러나 경량화되어 매우 빠른 속도로 대답해주는 것은 바로 확인할 수 있으니 어서 가서 사용해보세요!

새롭게 공개된 ChatGPT4o는 기존 모델들보다 더 향상된 성능과 다양한 기능을 제공하여 사용자들에게 큰 기대를 받고 있습니다. 앞으로도 AI 기술의 발전이 우리의 일상에 얼마나 많은 변화를 가져올지 기대가 됩니다.

반응형