2018년에 등장한 GPT-1을 계기로 GPT는 꾸준히 발전하고 있다. 이 친구는 매개변수가 1억 1,700만 개 정도로 지금 보기에는 형편없지만 당시로서는 아주 큰 규모였다. 게다가 따끈따끈한 Transformer 아키텍처를 사용했기 때문에 체감 성능은 매우 높았다.
이후 2019년에 GPT-2는 15억 개의 매개변수를 사용한다. 이전 모델과 비교한 특장점은 더 긴 문장을 구사함과 동시에 일관성과 유창성을 유지한다는 것이다.
게다가, 다룰 수 있는 주제도 넓어졌다. 제로샷 학습이라고 하는데 이는 특정 작업을 위해서 추가적인 노력이 들지 않는다는 것이다. AGI까지는 아니지만 예전에 비하면 훨씬 더 가까워졌다고 볼 수 있다.
2020년이 되자 GPT-3가 나왔다. 매개변수는 1,750억 개로 거의 100배 이상 커졌다. 이후 2022년에 이를 기반으로 한 chatGPT 서비스가 등장했다.
2023년에는 GPT-4가 나왔다. 가장 큰 특징은 멀티모달이 가능하기 때문에 이미지와 같은 다양한 형태의 데이터를 받아들일 수 있게 됐다는 것이다! 게다가 추론 능력이 향상되어서 좀 더 인간다운 미묘한 징후를 잡아내게 되었다.ㅎ
그렇다면 이게 끝이냐?
아니다. 엄청 많다.
근데 이건 최전선에서 일하는 기술자가 아닌 이상 세세한 차이는 무시해도 될 것 같다.
왜냐면 각각에 대해 비교를 해봤는데(GPT-3 vs GPT-3.5, GPT-3.5 vs GPT-3.5 Turbo 등등) 결국 앞에 숫자에 따라서만 대격변이 있을 뿐 나머지는 부가적이기 때문이다.
Turbo가 붙어서 비용이 1/3이 되었는데 Mini가 붙은 친구는 거의 1/30이 되었다 ㄷㄷ
별 질문이 아니라면 환경을 생각하여 Mini를 쓰도록 하자~
다만 GPT-4와 GPT-4o의 차이에 대해서는 짚어둘 필요가 있겠다.
o는 omni의 약자로 문자, 소리, 영상, 사진 등 멀티 모달로 인풋을 받을 수 있다는 특징이 있다. 가장 중요한 점은 응답 속도가 아주 빨라졌다는 점이다! 이 덕분에 컴퓨터와 소통하는 게 아니라 실제 사람이랑 소통하는 것처럼 지연이 단축되는 효과가 있다.
chatGPT와 직접 말로 대화를 나눌 때 GPT-4의 경우 5.4초가 걸렸다. 이는 소리를 글자로 변형하고, 해당 글자에 답을 하고, 이걸 다시 소리로 변형하기 때문인데 이 과정에서 사용자의 억양, 감정, 배경의 소리 등의 정보를 알 수가 없게 된다. 게다가 chatGPT가 말을 할 때도 억양이나 감정 표현을 넣을 수 없다는 문제가 있다.
GPT-4o는 이게 가능하다!
그리고 서로 다른 타입의 데이터를 한 가지 모델로 다루기 때문에 일관성도 더 높아졌다.
GPT-4이후로 극적인 변화는 GPT-4o가 마지막이었는데 이제 여기에 추가로 완전히 새로운 모델인 o1-preview가 나왔다. 이름이 아예 달라진 것이다,, 기존의 GPT 모델 시리즈에서 벗어난 것이다!!!
당연히 전혀 다른 기능을 목표로 만들어졌다.
이에 대해서는 다음에 살펴보도록 하자,,
'분명 전산학부 졸업 했는데 코딩 개못하는 조준호 > 기타' 카테고리의 다른 글
[o1-preview] OpenAI가 또 새로운 서비스를 내놓았다!!! - (3) 새로운 시리즈 o1 (0) | 2024.09.19 |
---|---|
[o1-preview] OpenAI가 또 새로운 서비스를 내놓았다!!! - (1) GPT 자체에 대해 알아보는 시간 (11) | 2024.09.17 |
cmd에서 언제 슬래시(/)를 쓰고 언제 백슬래시(\)를 쓸까? (0) | 2024.07.01 |
[MySQL] PRIMARY KEY 만들고 넣을 때 참고 사항 (0) | 2024.06.27 |
[MySQL] JOIN 연산의 종류 (0) | 2024.06.26 |
한국은행 들어갈 때까지만 합니다
조만간 티비에서 봅시다