오픈AI, 구글, 메타는 왜 더 싸고, 작은 모델에 집중하고 있을까?

Описание к видео 오픈AI, 구글, 메타는 왜 더 싸고, 작은 모델에 집중하고 있을까?

AI거품론이 대두되고 있습니다. 거대언어모델을 학습시키고, 사용하기 위해서 너무 많은 비용이 소모되기 때문인데요, 막대한 투자금이 들어간 반면 수익은 아직 미미한 편입니다. 그러다 보니 훌륭한 기술을 보유하고 있는 스타트업들도 끊임없이 자금을 조달해야 되거나 공중분해 되는 경우도 있습니다.

이같은 위기를 타파하기 위해 빅테크에서는 경량화된 값싼 모델을 쏟아내고 있는데요, 앞으로는 누가 더 성능을 떨어트리지 않으면서 더 싼 모델을 개발할 수 있느냐의 싸움에 돌입할 것 같습니다. 오픈AI, 구글, 앤트로픽, 메타 등 이 전쟁에서 승리할 회사는 누가 될까요?

편집: 박의정 영상디자이너
촬영: 장민주 PD
글·자료: 홍재의 기자
진행: 홍재의 기자
섬네일: 박의정 영상디자이너

▶티타임즈 공식 홈페이지
http://www.ttimes.co.kr/index.html
▶티타임즈 메일
[email protected]

#스태빌리티AI #인플렉션AI #AI버블

00:00 하이라이트
01:27 LLM 모델의 경쟁력은 어떻게 판단하나
04:21 LLM의 핵심 경쟁력 2가지
08:36 인컨텍스트러닝과 작은 모델이 중요한 이유
11:40 기존의 소프트웨어를 한 번에 묶을 수 있는 AI의 출현?
15:05 IT기업에 투자 잘하는 방법

Комментарии

Информация по комментариям в разработке