출처: Silicon Hare
건축의 세계는 두 가지로 나눌 수 있는데, 하나는 작은 것부터 큰 것까지 매일 열리는 바자회이고, 다른 하나는 여러 세대에 걸친 사람들의 노력과 수십 년의 노력의 결과인 교회라고 Eric Raymond는 <성당과 바자회>에서 썼습니다.
그리고 리눅스 이야기는 바자회 방식으로 성당을 짓는 것과 비슷합니다. 오늘날 제너레이티브 AI 분야에서는 점점 더 많은 오픈 소스 모델이 이러한 '구축 패턴'의 새로운 사례를 제공하고 있습니다.
AliCloud는 오픈 소스 모델을 강력하게 추구하고 있습니다. 현재 통이 천문(千問)의 퀀텀 파생 모델 수는 10만 개를 돌파하여 미국 라마 모델을 능가했으며, 통이는 세계 1위의 AI 오픈 소스 모델이 되었습니다.
4월 29일 새벽, 알리는 차세대 통이 첸첸 모델인 Qwen3(이하 첸첸3)를 출시했는데, 레퍼런스 수는 DeepSeek-R1, 235B의 1/3에 불과하며 비용도 크게 떨어졌습니다.
큐엔3는 국내 최초의 "하이브리드 추론 모델", "빠른 사고"와 "느린 사고"를 결합한 것으로 알려졌습니다. '빠른 사고'와 '느린 사고'가 하나의 모델에 통합된 중국 최초의 '하이브리드 추론 모델'로, 간단한 요구에는 낮은 계산의 '2차 반환' 답을 제공하고 복잡한 문제에는 다단계의 '심층 사고'를 통해 컴퓨팅 파워 소비를 크게 절약할 수 있다고 합니다.
2023년부터 알리통이 팀은 대형 언어 모델인 Qwen과 시각적 생성 모델인 완상완 및 기타 두 가지 주요 기본 모델 시리즈를 포함해 200개 이상의 모델을 오픈소스화했으며, 오픈소스에는 텍스트 생성 모델, 시각 이해/세대 모델, 음성 이해/세대 모델, 텍스트 및 비디오 모델 및 기타 전체 모달리티가 포함되어 있습니다.
ThousandQuestions3에는 총 235억 개의 매개변수가 있으며 활성화하는 데 22억 개만 필요합니다. ThousandQuestions3에는 36T의 사전 학습 데이터와 학습 후 단계에서 여러 차례의 강화 학습을 통해 비사고 모드를 사고 모델에 원활하게 통합할 수 있습니다.
Thousand Questions 3는 배포 비용도 획기적으로 저렴하여, 비슷한 성능의 모델에 비해 3분의 1의 메모리 공간만 차지하면서 H20 4개만 있으면 정식 버전의 Thousand Questions 3를 배포할 수 있습니다.
알리의 오픈 소스 모델 출시는 업계에 어떤 의미가 있나요? 오픈 소스 모델의 기능은 무엇인가요? 빅 모델 경쟁의 미래는 어디로 향할까요?
01 오픈소스 빅 모델의 역량
< span leaf="">오픈 소스 빅 모델의 기능이 클로즈드 소스 모델을 따라잡고 있습니다.
이것은 필자가 수많은 AI 기업가, 대기업의 빅 모델 개발자, 투자자들에게 물어본 후 내린 결론입니다.
그러나 이들은 오늘날에도 여전히 선두를 달리고 있는 것은 오픈소스 모델이지만, 오픈소스와 오픈소스 모델 간의 격차는 업계가 예상하지 못했던 속도로 점차 좁혀지고 있다는 데 동의합니다.
"90년대에는 클로즈드 소스 모델이 먼저 했지만, 지금은 오픈 소스 모델이 90년대에도 가능합니다." 한 대형 모델 개발자의 말입니다. 스케일링 법칙에는 항상 병목 현상이 있으며, 이 병목 현상은 모델이 커질수록 개선 능력이 기하급수적으로 증가하여 오픈 소스 모델이 따라잡을 시간을 준다는 사실에 반영되어 있습니다.
오픈 소스 모델의 개방성은 무엇인가요? 오픈 소스 소프트웨어와 어떻게 다른가요? 그리고 폐쇄형 소스 모델과 어떻게 다른가요?
오픈 소스 소프트웨어는 일반적으로 소스 코드의 전체 내용을 공개하여 개발자가 이를 보고 수정할 수 있으며, 후속 개발자는 해당 코드를 기반으로 해당 기능 구현을 쉽게 재현할 수 있습니다. 그러나 오픈 소스 모델은 일반적으로 어떤 데이터를 사용하고, 어떻게 미세 조정하고, 어떻게 정렬하는지에 대한 매개변수만 공개되어 있을 뿐 그 내용을 알기 어렵습니다. 반면에 비공개 소스 모델은 완전한 솔루션 세트를 직접 제공합니다. 오픈 소스 모델은 원재료에 기반하기 때문에 요리사가 직접 도구, 메뉴, 연구 방법을 준비해야 하지만 좋은 요리를 만들 수 있는지 여부는 요리사의 능력에 달려 있다고 이해할 수 있습니다. 폐쇄형 소스 모델은 미리 만들어진 요리를 가열하여 사용하는 방식입니다.
그러나 오픈 소스 모델의 장점은 더 많은 개발자가 모델 개발에 참여할 수 있고, 모델 성능을 개선하고 생태계를 개선하며 유연성이 있다는 점입니다. 이를 통해 모델 회사는 많은 인건비와 시간 비용을 절감할 수 있습니다. 또한 오픈 소스 모델을 사용하는 당사자에게는 비용을 절감할 수 있는 방법이기도 합니다.

그러나 오픈 소스 모델링의 비용 이점은 선불입니다. 예를 들어, 폐쇄 소스 모델인 GPT-4의 경우 백만 토큰당 비용이 30달러인 것으로 계산되었습니다. 백만 토큰 인당 30달러, 백만 토큰 아웃당 30달러인 반면, 오픈 소스 모델인 Llama-3-70-B는 백만 토큰 인당 약 60센트, 백만 토큰 아웃당 70센트로 약 10배 더 저렴하면서도 성능 차이는 거의 없는 것으로 계산되었습니다. 그러나 후속 배포에 있어서는 고도의 기술력과 투자가 필요합니다.
그러나알리가 최근 출시한 천 개의 질문 3도 비용 투자 문제를 점진적으로 해결하고 있습니다.". 예를 들어 배포 비용에서 천 개의 질문 3은 R1 정식 버전의 25 %에서 35 %이며 모델 배포 비용은 6 / 7 % 크게 감소합니다. 천문 3 모델의 주력 버전은 총 파라미터가 235B로 22B를 활성화하기 위해 대략 4개의 H20 또는 동등한 성능의 GPU가 필요하며, 이에 비해 딥시크-R1의 풀 블러드 버전은 총 파라미터가 671B로 37B를 활성화하기 위해 1개의 8카드 H20이 실행될 수 있지만 더 타이트하며(100w 정도) 일반적으로 16카드 H20을 사용하는 것이 권장되며 총 비용은 약 200만 달러입니다.
모델 추론 관점, 천 개의 질문 3 고유 한 하이브리드 추론 모델, 개발자는 자신의 "사고 예산"을 설정하여 성능 요구 사항을 동시에 충족하여 사고를보다 정교하게 제어 할 수 있으며 자연스럽게 전체 추론 비용도 절약 할 수 있습니다. 참고로, 동일한 유형의 Gemini-2.5-Flash의 추론 모드와 비추론 모드의 가격 차이는 약 6배이며, 사용자는 비추론 모드를 사용할 때 최대 600%의 산술 비용을 절약할 수 있습니다.
대형 공장에서 대형 모델을 개발하는 한 개발자는 실리콘 래빗에 오픈소스 모델이 학술 기관과 같이 기술력은 뛰어나지만 예산이 부족한 팀에 더 적합하다고 말했습니다. 그리고 클로즈드 소스 모델은 인력과 예산이 적은 회사에 적합합니다. 그러나 설문조사에 참여한 기업의 41%는 자사의 역량이 향상됨에 따라 오픈 소스 모델 사용을 늘릴 계획이며, 41%는 오픈 소스 모델이 폐쇄 소스 모델만큼 성능이 좋다면 오픈 소스 모델로 전환할 의향이 있다고 답했습니다. 이번 설문조사에 참여한 기업의 18%만이 오픈 소스 LLM 사용을 늘릴 계획이 없다고 답했습니다.
A16z의 창립자인 마크 앤더슨은 오픈 소스가 대학에 다시 활기를 불어넣는다고 말했습니다. 연구자들이 우려하는 것은 다음과 같습니다. 첫째, 대학이 AI 분야에서 경쟁하고 관련성을 유지할 수 있는 충분한 자금이 없고, 둘째, 모든 대학이 함께 경쟁할 수 있는 충분한 자금이 없기 때문에 대기업의 자금력을 따라잡을 수 없다는 것입니다. 오픈 소스 모델이 더 많이 공개되고 그 역량이 높아지면 대학이 오픈 소스 모델을 연구에 사용할 수 있다는 뜻입니다. 자금이 충분하지 않은 소규모 기업도 같은 논리를 적용할 수 있습니다.

실리콘 버니 준 지도
02 < strong>대형 모델의 동양적 계시
DeepSeek가 갑자기 등장하면서 많은 사람들이 중국 기업의 오픈소스 모델 능력을 발견했습니다.
"딥시크는 가볍고 저렴한 AI 제품을 대표합니다." 한 중미계 AI 투자자는 예를 들어 혼합 전문가 모델(MoE)의 조정에는 매우 높은 장인 정신이 필요하며, 과거에는 어렵다는 이유로 많은 주류 모델이 MoE를 사용하지 않았지만 "아이들은 악을 믿지 않는다"고 말했지만 그들은 그것을 해냈다고 말했습니다.
하지만 오픈 소스 모델에서 가장 중요한 것은 얼마나 많은 사람들이 사용하는지, 즉 생태학입니다. 결국, 사용자가 여러 모델을 전환해야 하는 것은 사용자에게 엄청난 비용이 듭니다. 하지만 딥시크가 갑자기 등장하자 메타의 대형 모델을 사용하던 실리콘밸리의 일부 사용자들도 딥시크로 전환했습니다."후발주자는 선발주자보다 충분한 이점을 가져야 합니다< span leaf="">." 이것이 바로 사용자들이 초기 투자 비용을 포기하고 새로운 오픈소스 모델로 전환하도록 유도하는 것이라고 한 대형 모델 개발자는 말합니다.
실리콘 래빗 준이 전 세계 유명 모델의 오픈소스와 폐쇄 소스 현황을 집계한 결과 아마존, 마이크로소프트, 구글, 메타, 오픈AI 외에도 오픈소스 모델 레이아웃을 갖춘 기업이 있고, 순수 오픈소스 경로를 선택하는 기업도 있고, 오픈소스와 폐쇄 소스를 병행하는 기업도 있으며, 중국에서는 대형 제조업체 중 알리가 가장 오픈소스의 길을 가기로 결심한 것으로 나타났다고 밝혔다. 중국에서 알리는 오픈 소스 길을 가장 단호하게 걷는 대형 공장입니다. 딥시크가 R1을 출시하기 전부터 알리는 오픈소스 모델에 베팅하고 배치했습니다.
세계적으로 알려진 모델 오픈소스
출처: Silicon Rabbit에서 수집한 공개 정보
현재2025연도4월월29일요일< span lang="EN-US">
|
페이페이 리의 스탠퍼드 AI에 따르면 Report 2025에 따르면 2024년 중반 알리에서 발표한 유명 AI 빅모델 수는 6개로 세계 3위이며, 구글과 Open AI가 7개로 공동 1위를 차지했습니다. 그리고 보고서에서 언급된 2024년 중요 빅모델 순위에서알리의 AI 기여도는 세계 3위를 차지했습니다.

출처: '스탠포드 인공지능 보고서 2025'
29일 출시된 천문3는 통이 천문 시리즈의 최신 빅데이터 모델로서 다양한 밀도형 및 혼합 전문가(MoE) 모델을 제공합니다. 추론, 명령 추종, 인텔리전스 기능 및 다국어 지원 기능의 획기적인 특징은 다음과 같습니다.
1) 독특한 하이브리드 추론: 복잡한 논리적 추론, 수학 및 코딩을 위한 사고 모드와 효율적인 범용 대화를 위한 비사고 모드 간의 원활한 전환을 지원하여 광범위한 시나리오를 보장합니다. 원활하게 지원하여 다양한 시나리오에서 최적의 성능을 보장합니다.
2) 대폭 향상된 추론: 수학적, 코드 생성 및 상식적인 논리적 추론을 위해 이전 QwQ(사고 모드에서) 및 Qwen2.5-Instruct 명령 모델(비사고 모드에서)을 뛰어넘습니다.
3) 더 나은 인간 선호도 정렬: 창의적 글쓰기, 역할극, 다중 라운드 대화 및 명령 팔로우에서 더 자연스럽고 몰입감 넘치는 대화 경험을 제공합니다.
4) 뛰어난 지능형 바디 기능 : 사고 모드와 비사고 모드 모두에서 외부 도구를 정확하게 통합하고 복잡한 에이전트 기반 작업에서 오픈 소스 모델을 선도합니다.
5) 강력한 다국어 기능 : 강력한 다국어 명령 팔로잉 및 번역 기능으로 119개 언어와 방언을 지원합니다.
언급한 '하이브리드 추론'은 상위 추론 모델과 비추론 모델을 동일한 모델에 통합하는 것으로, 매우 정교하고 혁신적인 설계와 학습이 필요합니다. 현재 이를 지원하는 모델은 천 개의 질문 3, 클로드 3.7, 제미니 2.5 플래시뿐입니다.
특히 '추론 모드'에서는 모델이 질문 분석, 단계별 도출, 답변 검증 등의 중간 단계를 수행하여 보다 신중한 답변을 제공하는 반면, '비추론 모드'에서는 모델이 질문으로 바로 이동합니다. '비추론 모드'에서는 모델이 직접 답을 생성합니다. 동일한 모델에서 '빠른 사고'와 '느린 사고'를 할 수 있는데, 이는 인간이 경험이나 직관에 따라 간단한 질문에 빠르게 답한 다음 복잡한 문제에 직면했을 때 깊고 신중한 사고로 답을 내놓는 것과 유사합니다. 또한 ThousandQuestions3는 API가 다양한 수준의 사고에 대해 "사고 예산"(즉, 예상되는 최대 사고 토큰 수)을 설정할 수 있어 개발자와 조직의 다양한 요구를 충족하기 위해 성능과 비용 간에 더 나은 균형을 맞출 수 있도록 합니다.
Qwen3성능 프로필

중국인용
중국용입니다. leaf="">퍼플렉서티는 미국 회사이지만 사용자는 퍼플렉서티를 사용하여 액세스할 수 있습니다. DeepSeek R1에서 DeepSeek R1이며 미국 데이터센터를 사용하여 미국에서 전적으로 호스팅되고 있습니다.


03 더 빅모델링의 후반부<
2023년 3월 샌프란시스코 익스플로러토리움에서 열린 오픈 소스 AI 행사에서 알파카가 메타의 오픈 소스 빅 언어 모델 'LLaMA'에 경의를 표하며 거닐고 있습니다.
2023년 이후 1년여 동안 제너레이티브 AI는 변화하고 있습니다. 대중의 관심은 기본 모델에서 AI 네이티브 애플리케이션으로 바뀌고 있습니다. YC W25의 데모 데이에서는 프로젝트의 80%가 AI 앱이었습니다.
"오픈 소스 모델은 현장에서 더 많은 에이전트를 지원할 것입니다." 많은 업계 관계자들이 Silicon Rabbit에 이러한 견해를 밝혔습니다. 한편으로 오픈소스는 비용과 사용의 문턱을 낮출 것입니다.
예를 들어, Qwen-Agent 3는 강력한 도구 호출 기능을 갖추고 있으며, 버클리 함수 호출 BFCL 평가 목록에서 70.76이라는 새로운 최고치를 기록하여 에이전트 호출 도구의 문턱을 크게 낮출 수 있습니다. 동시에 Qwen의 명령 추적, 도구 사용, 계획 및 메모리 기능을 기반으로 LLM 애플리케이션을 개발하는 프레임워크이자 프레임워크 내에 도구 호출 템플릿과 도구 호출 파서를 캡슐화하고 브라우저 어시스턴트, 코드 인터프리터 및 사용자 지정 어시스턴트와 함께 제공되는 Qwen-Agent 오픈 소스 프레임워크와 결합하여 Qwen3의 지능형 바디 기능을 완벽하게 실현할 수 있습니다. 샘플 애플리케이션을 제공하여 코딩 복잡성을 크게 줄여줍니다. Qwen-Agent 3는 기본적으로 MCP 프로토콜을 지원합니다. 개발자는 사용 가능한 도구를 정의하기 위해 MCP 프로필을 기반으로 Qwen-Agent의 통합 도구를 사용하거나 다른 도구를 자체적으로 통합하여 설정, 지식 기반 RAG 및 도구 사용 기능을 갖춘 지능형 바디를 빠르게 개발할 수 있습니다.
그뿐만 아니라,Ali의 Qwen-Agent 3는 다양한 크기의 모델을 지원할 수 있으며모바일폰, 스마트 안경, 스마트 운전, 휴머노이드와 같은 스마트 디바이스와 시나리오의 배포에 유용합니다. 로봇 공학 및 기타 지능형 장치 및 시나리오는 배포에 더 친숙하며 모든 기업은 천문 3 시리즈 모델을 무료로 다운로드하여 상용화 할 수 있으며, 이는 또한 터미널 착륙에 AI 빅 모델의 적용을 크게 가속화 할 것입니다.
또한 일부 실무자들은 To B 끝의 폐쇄형 소스 모델은 신뢰 문제에 대한 좋은 해결책이 아니며, 많은 대기업이 실제로 오픈 소스 모델의 기회 인 타사 빅 모델 학습의 일부가 될지 여부가 핵심 데이터 뒤에 있기 때문에 API의 타사 빅 모델에 자체 비즈니스에 액세스 할 의사가 없다고 지적했습니다.
베타 테스트 전, 내일이 어떻게 될지 알 수 없는 초기 단계 제품의 마케팅 전략으로 오픈소스를 먼저 오픈하여 개발자를 유치하자는 주장이 있습니다. 누군가가 사용하면 모범 사례가 생기고, 그 직후에 생태계가 구축됩니다.
그러나 오픈소스 모델은 비즈니스 체인이 길기 때문에 비공개 소스 모델만큼 빠르고 명확하지 않기 때문에 업계에서는 오픈소스 모델이 돈과 자원이 있는 '부자'에게 더 적합하다고 말합니다. 2세대" 게임. 메타, 메타 오픈소스 모델은 메타의 다른 비즈니스 부문이 지원을 제공할 수 있도록 생태계를 구축하는 것입니다. Ali가 오픈소스를 하는 논리는 클라우드 서비스를 위한 것입니다. 알리는 강력한 클라우드 시설 서비스를 보유하고 있으며이 교육용 빅 모델을 기반으로 할 수 있으며 자체 클라우드 서비스 제공 업체에 배포 할 수도 있으며 사용자의 독점 빅 모델 배포에 따라 사용자 정의 할 수도 있으며 이러한 방식으로 비즈니스 논리를 통해 이동합니다.
"제 모델은 대기업, 중소기업, 오픈소스가 서로 경쟁하는 것입니다. 이것이 바로 컴퓨터 업계에서 일어나고 있는 일입니다." 마크 안드레센은 이렇게 말했습니다. 그리고 대기업 모델이 점차 물, 전기, 석탄처럼 표준화됨에 따라 오픈소스가 더 나은 방법이 될 수 있습니다.