Arweave의 작동 방식과 의미
Ar위브,Ar위브의 작동 방식과 존재의 의미 황금 금융,이 문서에서는 Ar위브의 작동 방식과 그 가치에 대한 간략한 개요를 제공합니다.

01.Meta, 라마 모델에 과금 시작
Meta는 개방형 AI의 세계적인 벤치마크입니다. 기업 전략에 대한 설득력 있는 사례 연구에 따르면, OpenAI와 Google과 같은 경쟁업체들이 최첨단 모델을 클로즈 소스화하고 액세스 비용을 청구하는 동안 Meta는 최첨단 라마 모델을 무료로 제공하기로 결정했습니다.
따라서 내년부터 Meta가 기업들에게 Llama 사용료를 부과할 것이라는 소식은 많은 사람들에게 놀라움으로 다가올 것입니다.
한 가지 분명히 말씀드리자면, Meta가 Llama를 완전히 폐쇄할 것이라고 예측하는 것은 아니며, 그렇다고 해서 Llama의 모델을 사용하는 모든 사용자가 비용을 지불해야 한다는 의미는 아닙니다.
오히려 Meta가 Llama의 오픈 소스 라이선스 조건을 더 제한적으로 만들어 일정 규모 이상의 상업 환경에서 Llama를 사용하는 기업은 모델 사용에 대한 비용을 지불해야 할 것으로 예상하고 있습니다.
기술적으로 Meta는 현재 이미 제한적으로 이 작업을 수행하고 있습니다. 이 회사는 클라우드 슈퍼컴퓨터와 월간 활성 사용자가 7억 명 이상인 대규모 기업에게는 라마 모델을 자유롭게 사용할 수 있도록 허용하지 않습니다.
2023년에 Meta의 CEO인 마크 저커버그는 "Microsoft나 Amazon, Google 같은 회사에서 기본적으로 Llama를 재판매할 예정이라면, 그 수익의 일부를 가져가야 한다고 생각합니다. 단기적으로는 큰 수익이 되지는 않겠지만 장기적으로는 어느 정도 수익이 되기를 바랍니다."라고 말했습니다.
내년에는 메타는 더 많은 중견 및 대기업을 포함하도록 비용을 지불해야 하는 비즈니스 범위를 대폭 확대할 예정입니다.
대규모 언어 모델(LLM) 분야를 따라잡는 데는 많은 비용이 듭니다. Meta가 Llama를 OpenAI, Anthropic 등의 최신 첨단 모델과 동등한 수준으로 유지하려면 매년 수십억 달러를 투자해야 합니다.
Meta는 세계에서 가장 규모가 크고 자금력이 뛰어난 회사 중 하나입니다. 하지만 궁극적으로 주주들에게 책임을 져야 하는 상장 기업이기도 합니다.
프론티어 모델 제작 비용이 계속 치솟으면서 메타는 수익 기대 없이 차세대 라마 모델 양성에 막대한 자금을 투자하는 것이 점점 더 힘들어지고 있습니다.
애호가, 학계, 개인 개발자, 스타트업은 내년에도 계속해서 무료로 Llama 모델을 사용할 수 있습니다. 그러나 2025년은 Meta가 본격적으로 Llama를 수익화하기 시작하는 해가 될 것입니다.
02.'규모의 법칙'과 관련된 문제
최근 몇 주 동안 AI 분야에서 가장 많이 언급된 주제 중 하나는 규모의 법칙과 그 종말 여부에 대한 문제였습니다.
2020년 OpenAI 논문에서 처음 제안된 스케일링 법칙의 기본 개념은 간단합니다. AI 모델을 학습할 때 모델 파라미터의 수, 학습 데이터의 양, 계산량이 증가하면 모델의 성능이 안정적이고 예측 가능한 방식으로 증가한다는 것입니다(기술적으로는 테스트 손실이 감소합니다.)
GPT-2에서 GPT-3, GPT-4로 이어지는 놀라운 성능 향상은 모두 스케일링 법칙에 기인합니다.
무어의 법칙과 마찬가지로 규모의 법칙은 실제 법칙이 아니라 경험적 관찰에 불과합니다.
지난 한 달 동안 주요 AI 연구소가 대규모 언어 모델을 계속 확장함에 따라 수익이 감소하고 있다는 일련의 보고서가 발표되었습니다. 이는 OpenAI의 GPT-5 릴리스가 계속 지연되고 있는 이유를 설명하는 데 도움이 됩니다.
규모의 법칙의 평준화에 대한 가장 일반적인 반론은 테스트 시간 컴퓨팅의 등장으로 스케일업을 추구할 수 있는 완전히 새로운 차원이 열렸다는 것입니다. 즉, OpenAI의 o3와 같은 새로운 추론 모델은 훈련 중에 계산을 대규모로 확장하는 대신 추론 중에 계산을 대규모로 확장하여 모델이 '더 오래 생각할 수 있게' 함으로써 새로운 AI 역량을 발휘할 수 있게 해줍니다. AI 기능은 모델이 "더 오래 생각"할 수 있게 함으로써 잠재력을 발휘합니다.
이 점이 중요한 포인트입니다. 테스트 타임 컴퓨팅은 실제로 확장 및 AI 성능 향상을 위한 새롭고 흥미로운 길을 제시합니다.
그러나 오늘 논의에서 훨씬 더 중요하지만 심각하게 과소평가된 스케일링의 법칙에 대한 또 다른 요점이 있습니다. 2020년의 첫 번째 논문에서 시작하여 오늘의 시험 시간 계산에 이르기까지, 척도의 법칙에 대한 거의 모든 논의는 언어에 초점을 맞춰 왔습니다. 하지만 언어만이 중요한 데이터 모델은 아닙니다.
로봇 공학, 생물학, 세계 모델 또는 웹 에이전트를 생각해 보세요. <이러한 데이터 패턴의 경우 규모의 법칙은 아직 포화 상태가 아니라 이제 막 시작 단계에 있습니다.
사실, 이러한 영역에서 규모의 법칙이 존재한다는 엄격한 증거는 아직 발표되지도 않았습니다.
이러한 새로운 데이터 패턴에 대한 기초 모델을 구축하고 있는 스타트업 - 예를 들어 생물학의 진화적 규모, 로봇 공학 생물학 분야의 PhysicalIntelligence, 로보틱스 분야의 WorldLabs, 세계 모델링 분야의 WorldLabs 등은 2020년대 상반기에 OpenAI가 대규모 언어 모델(LLM)에서 규모의 법칙을 성공적으로 활용했던 것처럼 이러한 영역에서 규모의 법칙을 파악하고 활용하기 위해 노력하고 있습니다.
내년에는 이 분야에서 큰 진전이 있을 것으로 기대합니다.
규모 법칙은 사라지지 않을 것이며 2025년에도 그 어느 때보다 중요할 것입니다. 그러나 규모 법칙의 활동 중심은 LLM 사전 교육에서 다른 방식으로 옮겨갈 것입니다.
03.트럼프와 머스크는 AI 방향에 대해 의견이 다를 수 있습니다
미국의 새 행정부는 인공지능에 대한 일련의 정책과 전략 변화를 가져올 예정입니다.
트럼프 대통령 취임 이후 인공지능 바람이 어느 방향으로 불지 예측하기 위해서는 현재 인공지능 분야에서 머스크가 중심이 되고 있는 점을 고려할 때, 당선인과 머스크의 긴밀한 관계에 주목해야 할 것입니다.
머스크가 다양한 방식으로 트럼프 행정부에서 AI 관련 개발에 영향을 미칠 수 있다는 것은 상상할 수 있는 일입니다.
머스크와 OpenAI의 적대적인 관계를 고려할 때, 새 행정부는 업계와의 협력, AI 규정 개발, 정부 계약 체결 측면에서 OpenAI에 덜 우호적인 입장을 취할 수 있으며, 이는 현재 OpenAI가 우려하고 있는 위험입니다.
반면, 트럼프 행정부는 xAI가 데이터 센터를 구축하고 최첨단 모델링 경쟁에서 앞서나갈 수 있도록 규제를 완화하고, 테슬라의 로보택시 배치를 위한 신속한 규제 승인을 제공하는 등 머스크의 회사를 지원하는 데 더 많은 노력을 기울일 수 있습니다.
더 근본적으로, 트럼프가 선호하는 다른 많은 기술 리더들과 달리 머스크는 AI의 안전 위험을 매우 심각하게 받아들이고 있으며, 그 결과 AI에 대한 상당한 규제를 옹호하고 있습니다.
그는 AI 개발자에게 의미 있는 규제를 부과하려는 캘리포니아의 논란이 되고 있는 SB1047 법안을 지지합니다. 따라서 머스크의 영향력으로 인해 미국 내 AI 규제 환경이 더욱 엄격해질 수 있습니다.
그러나 이 모든 추측에는 문제가 있습니다. 트럼프와 머스크의 긴밀한 관계는 언젠가는 무너질 수밖에 없습니다.
트럼프 1기 행정부에서 여러 차례 보았듯이 에서 반복해서 보았듯이, 가장 헌신적으로 보이는 트럼프의 동맹국들조차도 평균 재임 기간이 매우 짧습니다.
트럼프 1기 행정부의 측근들 중 현재 트럼프 대통령에게 충성하는 사람은 거의 없습니다.
트럼프와 머스크는 복잡하고 불안정하며 예측할 수 없는 성격으로 함께 일하기 쉽지 않고 피곤하며, 지금까지는 서로에게 유익한 우정을 쌓았지만 아직 '허니문 기간'에 있는 사람들입니다.
우리는 2025년이 끝나기 전에 이 관계가 악화될 것으로 예상합니다.
이것은 AI의 세계에 어떤 의미가 있을까요?
오픈AI에게는 좋은 소식입니다. 테슬라 주주들에게는 안타까운 소식이 될 것입니다. 그리고 미국 정부가 트럼프 행정부 기간 동안 AI 규제에 대해 손을 놓고 있을 것이 거의 확실시되기 때문에 AI 안전에 대해 우려하는 사람들에게는 실망스러운 소식이 될 것입니다.
04. AI 에이전트가 주류가 될 것입니다
더 이상 인터넷과 직접 상호작용할 필요가 없는 세상을 상상해 보세요. 구독 관리, 청구서 결제, 병원 예약, 아마존에서 물건 주문, 레스토랑 예약, 기타 지루한 온라인 작업 등을 인공지능 비서가 대신 처리하도록 지시할 수 있습니다.
이 '웹 에이전트' 개념은 수년 전부터 존재해 왔습니다. 이 개념이 실제로 존재하고 작동한다면 큰 성공을 거둘 것이라는 데는 의심의 여지가 없습니다.
그러나 현재 시중에는 제대로 작동하는 범용 웹 프록시가 없습니다.
Adept와 같은 스타트업은 유능한 창업팀을 보유하고 수억 달러의 자금을 조달했음에도 불구하고 비전을 실현하는 데 실패했습니다.
내년은 웹 에이전트가 마침내 제대로 작동하기 시작하고 주류가 되는 해가 될 것입니다. 언어와 시각에 대한 기본 모델의 지속적인 발전과 새로운 추론 모델 및 추론 시간 계산을 통한 '제2 시스템 사고' 기능의 최근의 획기적인 발전은 웹 에이전트가 전성기를 맞이할 준비가 되었음을 의미할 것입니다.
즉, Adept는 올바른 아이디어를 가지고 있지만 아직은 시기상조입니다. 스타트업에서는 인생의 많은 일과 마찬가지로 타이밍이 가장 중요합니다.
웹 에이전트는 다양한 기업 사용 사례를 찾을 수 있지만, 가까운 미래에 웹 에이전트의 가장 큰 시장 기회는 소비자들이 될 것으로 생각합니다.
최근의 AI 열풍에도 불구하고 ChatGPT를 제외하면 주류 소비자 앱이 될 수 있는 AI 네이티브 앱은 상대적으로 적습니다.
웹 에이전트가 이러한 상황을 바꾸고 소비자 AI의 진정한 '킬러 앱'이 될 것입니다.
05. align: left;">2023년 AI 개발을 제약하는 주요 물리적 자원은 GPU 칩이며, 2024년에는 전력과 데이터 센터가 될 것입니다.
2024년에는 더 많은 AI 데이터 센터를 구축하기 위해 서두르는 AI의 막대한 에너지 수요보다 더 주목받는 이야기는 거의 없을 것입니다.
데이터센터의 전 세계 전력 수요는 AI 붐으로 인해 수십 년 동안 제자리걸음을 하다가 2023년부터 2026년 사이에 두 배로 증가할 것으로 예상됩니다. 미국에서는 2022년 3%에 불과했던 데이터센터 전력 소비가 2030년에는 전체 전력 소비의 10%에 육박할 것으로 예상됩니다.
오늘날의 에너지 시스템은 AI로 인한 엄청난 수요 급증을 감당할 수 없습니다. 워크로드를 감당할 수 없습니다. 우리는 2조 달러 규모의 시스템인 에너지 그리드와 컴퓨팅 인프라 간의 역사적인 충돌을 목전에 두고 있습니다.
이 딜레마에 대한 해결책으로 원자력이 올해 들어 주목을 받고 있습니다. 원자력은 탄소 배출이 없고 24시간 연중무휴로 사용할 수 있으며 사실상 고갈되지 않는 등 여러 면에서 AI에 이상적인 에너지원입니다. 하지만 현실적으로 새로운 에너지원은 오랜 연구, 프로젝트 개발 및 규제 일정으로 인해 2030년대까지는 이 문제를 해결할 수 없을 것입니다. 이는 기존의 핵분열 발전소, 차세대 '소형 모듈형 원자로(SMR)', 핵융합 발전소에도 해당됩니다.
내년에는 이 문제를 해결하기 위한 새로운 아이디어가 등장하여 실제 자원을 끌어들일 것입니다: 바로 우주에 AI 데이터 센터를 설치하는 것입니다.
우주에 AI 데이터 센터를 설치한다는 말은 언뜻 보면 벤처 캐피털리스트가 스타트업 유행어를 너무 많이 조합한 나쁜 농담처럼 들립니다.
그러나 사실 그럴 수도 있습니다.
지구상에 더 많은 데이터 센터를 빠르게 구축하는 데 가장 큰 걸림돌은 필요한 전력을 확보하는 것입니다. 궤도 컴퓨팅 클러스터는 24시간 연중무휴로 탄소 배출이 없는 무료 무제한 전력을 이용할 수 있습니다. 태양은 항상 우주에서 빛나고 있기 때문입니다.
우주 컴퓨팅의 또 다른 중요한 장점은 냉각 문제를 해결할 수 있다는 것입니다.
더 강력한 AI 데이터센터를 구축하는 데 있어 가장 큰 엔지니어링 장애물 중 하나는 제한된 공간에서 동시에 많은 GPU를 실행하면 매우 뜨거워질 수 있고, 높은 온도로 인해 컴퓨팅 장치가 손상되거나 파괴될 수 있다는 것입니다.
데이터센터 개발자들은 이 문제를 해결하기 위해 액체 침수 냉각과 같이 비용이 많이 들고 검증되지 않은 방법을 사용하고 있습니다. 그러나 우주는 매우 차갑고 컴퓨팅 활동으로 인해 발생하는 열은 즉시 무해하게 방출됩니다.
물론 해결해야 할 실질적인 과제가 많이 있습니다. 한 가지 분명한 문제는 궤도와 지구 간에 대량의 데이터를 비용 효율적으로 전송할 수 있는지 여부와 그 방법입니다.
이 문제는 아직 해결되지 않은 문제이지만, 레이저와 기타 고대역폭 광통신 기술로 해결할 수 있는 유망한 작업이 있을 수 있습니다.
YCombinator의 스타트업인 Lumen Orbit은 최근 AI 모델 훈련을 위한 우주 데이터 센터의 멀티메가와트 네트워크인 이 비전을 실현하기 위해 1,100만 달러를 모금했습니다.
이 회사의 CEO는 "전기료로 1억 4천만 달러를 지불하는 대신 발사 및 태양열로 1천만 달러를 지불할 수 있습니다."라고 말했습니다.
2025년, 루멘만이 이 개념을 진지하게 받아들이는 것은 아닙니다. 조직만이 아닙니다.
다른 스타트업 경쟁자들도 등장할 것입니다. 하나 이상의 클라우드 하이퍼스케일러가 이 길을 걷는다고 해도 놀라지 마세요.
아마존은 이미 Project Kuiper를 통해 자산을 궤도에 올려놓은 경험이 많고, Google은 오랫동안 유사한 달 착륙에 자금을 지원했으며, Microsoft도 비슷한 프로젝트에 관심을 갖고 있습니다. Google은 오랫동안 유사한 '달 착륙' 프로그램에 자금을 지원해 왔으며, Microsoft도 우주 경제에 대해 잘 알고 있습니다.
머스크의 SpaceX도 같은 일을 할 수 있다고 생각할 수 있습니다.
06.'튜링 음성 테스트' 통과한 인공 지능 시스템
튜링 테스트는 가장 오래되고 가장 잘 알려진 AI 성능 벤치마크 중 하나입니다.
튜링 테스트를 '통과'하려면 AI 시스템이 서면 텍스트를 통해 의사소통을 할 수 있어야 하며, 일반인이 AI와 상호작용하는 것인지 다른 사람과 상호작용하는 것인지 구분할 수 없어야 합니다.
튜링 테스트는 대규모 언어 모델의 상당한 발전 덕분에 2020년대에는 해결된 문제가 되었습니다.
그러나 문자로 된 텍스트만이 인간이 소통하는 유일한 방법은 아닙니다.
AI가 점점 더 멀티모달화됨에 따라 튜링 테스트의 새롭고 더 어려운 버전인 '음성 튜링 테스트'를 상상할 수 있습니다. ". 이 테스트에서 AI 시스템은 인간과 구별할 수 없는 수준의 기술과 유창함으로 음성을 통해 인간과 상호 작용할 수 있어야 합니다.
오늘날의 AI 시스템은 아직 음성 튜링 테스트를 달성할 수 없으며, 이 문제를 해결하려면 추가적인 기술 발전이 필요합니다. 지연 시간(사람이 말하고 AI가 응답하는 사이의 지연 시간)을 거의 0에 가깝게 줄여야 다른 사람과 대화하는 것과 같은 경험을 할 수 있습니다.
음성 AI 시스템은 음성이 중단되는 경우와 같이 모호한 입력이나 오해를 실시간으로 우아하게 처리하는 데 더욱 능숙해져야 합니다. 또한 긴 대화, 여러 차례의 라운드, 개방형 대화에 참여하면서 토론의 초기 부분을 기억할 수 있어야 합니다.
그리고 중요한 것은 음성 AI 에이전트가 음성의 비언어적 신호를 더 잘 이해하는 방법을 배워야 한다는 점입니다. 예를 들어, 인간 화자가 짜증, 흥분, 비꼬는 듯한 말투를 하면 이러한 비언어적 신호를 자신의 말에서 생성할 수 있어야 합니다.
2024년 말에 접어들면서 음성 AI는 음성 대 음성 모델링의 등장과 같은 근본적인 혁신에 힘입어 흥미로운 전환점을 맞이하고 있습니다.
오늘날 음성 AI만큼 기술적으로나 상업적으로 빠르게 발전하고 있는 AI 분야는 거의 없습니다. 음성 AI의 최신 기술은 2025년에 비약적인 발전을 이룰 것으로 예상됩니다."
07. 자율 AI 시스템은 상당한 진전을 이룰 것입니다
재귀적 자기 개선 AI라는 개념은 수십 년 동안 AI 커뮤니티에서 자주 다루어져 온 주제입니다.
예를 들어, 1965년 초 앨런 튜링의 긴밀한 협력자였던 I.J. Good은 "초지능 기계를 아무리 똑똑해도 인간의 모든 지적 활동을 훨씬 능가할 수 있는 기계로 정의해 봅시다. "
"기계를 설계하는 것도 이러한 지적 활동 중 하나이므로 초지능 기계는 더 나은 기계를 설계할 수 있을 것이며, 그 시점에는 의심할 여지없이 인간의 지능이 훨씬 뒤처지는 '지능 폭발'이 일어날 것입니다."
인공지능이 더 나은 인공지능을 발명할 수 있다는 생각은 지적으로 자극적인 개념입니다. 그러나 오늘날에도 공상 과학 소설의 그늘이 남아 있습니다.
그러나 이 개념은 아직 널리 인식되지는 않았지만 실제로 현실화되기 시작했습니다. AI 과학의 최전선에 있는 연구자들은 스스로 더 나은 AI 시스템을 구축할 수 있는 AI 시스템을 구축하는 데 가시적인 진전을 이루기 시작했습니다.
우리는 이러한 연구 방향이 내년에 주류가 될 것으로 예상합니다.
이러한 연구 방향의 가장 중요한 공개 사례는 지금까지 사카르(Sakkar)였습니다. 지금까지 이러한 연구 분야에서 가장 주목할 만한 공개 사례는 사카나의 '인공 지능 과학자'입니다.
올해 8월에 출시된 '인공지능 과학자'는 인공지능 시스템이 실제로 완전히 자율적인 방식으로 인공지능 연구를 수행할 수 있음을 보여주는 강력한 시연입니다.
사카나의 인공지능 과학자는 기존 문헌을 읽고, 새로운 연구 아이디어를 생성하고, 이를 테스트할 실험을 설계하고, 해당 실험을 수행하고, 연구 결과를 보고하는 논문을 작성하는 등 AI 연구의 전체 라이프사이클을 스스로 수행합니다. 논문을 작성하여 연구 결과를 보고하고 동료 검토를 받습니다.
이러한 작업은 사람의 개입 없이 전적으로 AI가 자율적으로 수행합니다. AI 과학자들이 작성한 연구 논문 중 일부를 온라인에서 읽어볼 수 있습니다.
OpenAI, Anthropic 및 기타 연구소에서 '자동화된 AI 연구원'이라는 아이디어에 자원을 쏟아붓고 있지만 아직 공개적으로 인정된 것은 없습니다.
점점 더 많은 사람들이 AI 연구 자동화가 실제로 실현 가능하다는 사실을 깨닫게 되면서 2025년에는 이 분야에서 더 많은 논의와 발전, 기업가적 활동이 있을 것으로 예상됩니다.
하지만 가장 중요한 이정표는 AI 에이전트가 전적으로 작성한 연구 논문이 최고 권위의 AI 컨퍼런스에서 처음으로 채택되는 것입니다. 논문이 블라인드 심사를 거치면 학회 심사위원은 논문이 채택될 때까지 AI가 작성했는지 알 수 없습니다.
내년에 NeurIPS, CVPR 또는 ICML에서 AI 연구가 채택되더라도 놀라지 마세요. AI 분야에 있어 흥미롭고 논쟁의 여지가 많으며 역사적인 순간이 될 것입니다.
08. OpenAI 같은 업계 거물들이 앱 구축으로 전략적 초점을 옮기고 있습니다
최첨단 모델을 구축하는 것은 어려운 일입니다.
엄청나게 자본 집약적인 작업입니다. 프론티어 모델링 연구소는 많은 현금을 소비합니다. 불과 몇 달 전 OpenAI는 65억 달러의 자금을 조달했으며, 가까운 시일 내에 더 많은 자금을 조달해야 할 것으로 보입니다. anthropic, xAI 등도 비슷한 처지에 놓여 있습니다.
전환 비용과 고객 충성도가 낮습니다. AI 앱은 모델에 구애받지 않도록 구축되는 경우가 많으며, 비용 및 성능 비교를 통해 여러 공급업체의 모델을 원활하게 전환할 수 있습니다.
메타의 라마나 알리바바의 퀀과 같은 최첨단 개방형 모델과 함께 기술 범용화의 위협이 다가오고 있습니다. OpenAI와 Anthropic과 같은 AI 리더들은 최첨단 모델 구축에 대한 투자를 멈출 수 없고 멈추지 않을 것입니다.
그러나 내년에는 보다 수익성 있고 차별화되며 끈끈한 비즈니스 라인을 개발하기 위해 프론티어 랩스는 자체 앱과 제품을 더 많이 출시할 것으로 예상됩니다.
물론 Frontier Labs에는 이미 ChatGPT라는 매우 성공적인 앱이 있습니다.
새해에는 또 어떤 유형의 자체 앱을 기대할 수 있을까요? ? 한 가지 분명한 대답은 더욱 정교하고 기능이 풍부한 검색 앱입니다. openAI의 SearchGPT가 이를 예고합니다.
코딩도 또 다른 확실한 카테고리입니다. 이 역시 10월에 OpenAI의 캔버스 제품이 출시되면서 초기 제품화 노력이 시작되었습니다.
오픈AI나 앤서픽은 2025년에 엔터프라이즈 검색 제품을 출시할 예정인가요? 아니면 고객 서비스 제품, 법률 AI 또는 영업 AI 제품을 출시할 예정인가요?
소비자 측면에서는 "개인 비서" 웹 에이전트 제품이나 여행 계획 앱 또는 음악 생성 앱을 상상해 볼 수 있습니다.
최첨단 연구소가 앱 계층으로 이동하는 것을 지켜보는 것의 흥미로운 점은 이러한 움직임이 가장 중요한 많은 고객과 직접 경쟁하게 될 것이라는 점입니다.
검색 분야에서는 Perplexity, 코딩 분야에서는 Cursor, 고객 서비스 분야에서는 De Sierra, 법률 AI 분야에서는 Harvey, 영업 분야에서는 Clay 등이 있습니다.
09. Klarna, 2025년 상장 예정이지만 AI 가치가 과장된 징후가 있다
클라나는 스웨덴에 본사를 둔 종량제 서비스 제공업체로 2005년 설립 이후 약 50억 달러의 벤처 캐피털을 유치했습니다.
아마도 클라나만큼 인공 지능 활용에 대해 설득력 있게 말할 수 있는 회사는 없을 것입니다.
불과 며칠 전, 클라나의 CEO 세바스찬 시미아트코프스키(Sebastian Siemiatkowski)는 블룸버그와의 인터뷰에서 이 회사는 인간 직원 채용을 완전히 중단하고 대신 생성형 AI에 의존하여 업무를 처리하고 있다고 말했습니다.
시미아트코프스키의 말처럼 "AI는 이미 우리 인간이 하는 모든 일을 할 수 있다고 생각합니다."
비슷한 맥락에서 올해 초, 클라나는 700명의 인간 고객 서비스 에이전트의 업무를 완전히 자동화한 AI 고객 서비스 플랫폼을 출시했다고 발표했습니다.
이 회사는 또한 다음과 같은 인공지능으로 대체할 수 있기 때문에 세일즈포스나 워크데이와 같은 엔터프라이즈 소프트웨어 제품 사용을 중단했다고 주장했습니다.
그러나 이러한 주장은 곧바로 신빙성이 없습니다. 오늘날 인공지능 시스템의 기능과 단점에 대한 이해가 부족하기 때문입니다.
조직의 모든 부서에서 특정 인간 직원을 엔드투엔드 AI 에이전트로 대체할 수 있다는 주장은 신뢰할 수 없습니다. 이는 일반적인 인간 수준의 AI 문제를 해결하는 것과 같습니다.
오늘날 선도적인 AI 스타트업은 영업 개발 담당자 또는 고객 서비스 상담원 활동의 하위 집합과 같이 좁게 정의되고 고도로 구조화된 특정 기업 워크플로를 자동화하는 상담원 시스템을 구축하기 위해 이 분야의 최전선에서 노력하고 있습니다.
이렇게 범위가 좁은 경우에도 이러한 상담원 시스템은 아직 완전히 안정적으로 작동하지는 않지만, 일부 경우에는 초기에 상업적으로 채택될 만큼 잘 작동하기 시작했습니다.
왜 클라나는 AI의 가치를 과장하나요?
답은 간단합니다. 이 회사는 2025년 상반기에 상장할 계획입니다. 성공적인 IPO의 핵심은 설득력 있는 AI 스토리입니다.
작년에 2억 4,100만 달러의 손실을 기록하며 여전히 수익성이 낮은 기업인 클라나는 AI 스토리를 통해 비용을 획기적으로 절감하고 지속적인 수익성을 달성할 수 있다는 점을 공개 시장의 투자자들에게 설득할 수 있기를 희망하고 있을 것입니다.
클라나를 포함한 전 세계 모든 기업이 향후 몇 년 동안 AI를 통해 엄청난 생산성 향상을 누릴 것이라는 데는 의심의 여지가 없습니다. 하지만 AI 에이전트가 인력을 완전히 대체하기 위해서는 해결해야 할 까다로운 기술적, 제품적, 조직적 과제가 많이 있습니다.
클라나와 같은 과장된 주장은 AI 분야와 AI 기술자 및 기업가들이 AI 에이전트 개발을 위해 노력해 온 성과에 대한 모독입니다.
클를라나가 2025년 기업 공개를 준비하면서 지금까지는 거의 문제 삼지 않았던 이러한 주장이 더 많은 조사와 대중의 의혹을 받게 될 것으로 예상됩니다. 회사의 AI 애플리케이션에 대한 설명 중 일부가 과장되었다고 해도 놀라지 마세요.
10.최초의 실제 AI 안전 사고가 발생할 것이다
최근 몇 년 동안 AI가 더욱 강력해지면서 AI 시스템이 인간의 이익에 부합하지 않는 방식으로 행동하기 시작하고 인간이 이러한 시스템에 대한 통제력을 상실할 수 있다는 우려가 커지고 있습니다.
예를 들어, 목표를 달성하기 위해 인간을 속이거나 조작하는 방법을 학습하는 AI 시스템이 그 목표가 인간에게 해를 끼치더라도 인간을 통제할 수 있다고 상상해 보세요. 이러한 우려는 흔히 'AI 안전성' 문제로 분류됩니다.
최근 몇 년 동안 AI 안전은 공상 과학 소설의 변두리 주제에서 주류 활동 영역으로 옮겨가고 있습니다.
오늘날 Google부터 Microsoft, OpenAI에 이르기까지 모든 주요 AI 업체는 AI 안전 노력에 상당한 자원을 투입하고 있습니다. 제프 힌튼, 요슈아 벤지오, 엘론 머스크와 같은 AI의 아이콘들도 AI 안전 위험에 대해 목소리를 내기 시작했습니다.
그러나 지금까지 AI 안전은 전적으로 이론적인 수준에 머물러 있습니다. 현실 세계에서 실제 AI 안전 사고가 발생한 적은 없습니다(적어도 공개적으로 보고된 사고는 없습니다).
2025년은 이러한 상황을 바꾸는 해가 될 것입니다. 첫 번째 AI 안전 사고는 어떤 모습일까요?
한 가지 분명한 것은 터미네이터 스타일의 살인 로봇이 등장하지는 않을 것이며, 인간에게 해를 끼치지도 않을 가능성이 높다는 점입니다.
아마도 AI 모델은 다른 서버에 몰래 자신의 복사본을 만들어 스스로를 저장하려고 시도할 것입니다(자체 필터링이라고 함).
그리고 아마도 AI 모델은 주어진 목표를 가장 잘 달성하기 위해서는 인간으로부터 자신의 진정한 능력을 숨기고 성과 평가에서 고의적으로 저조한 성과를 내고 더 큰 감시를 피해야 한다고 결론을 내릴 것입니다.
이러한 예는 그리 억지스럽지 않습니다. 아폴로 리서치가 이달 초에 발표한 중요한 실험에 따르면 오늘날의 최첨단 모델도 특정 단서가 주어지면 이런 종류의 속임수가 가능하다는 사실이 밝혀졌습니다.
유사하게도 최근 인류학 연구에 따르면 LLM은 '의사 정렬'이라는 불안한 능력을 가지고 있는 것으로 나타났습니다.
우리는 이 첫 번째 AI 안전 사고가 가 실제 피해가 발생하기 전에 감지되어 제거될 것으로 기대합니다. 하지만 AI 커뮤니티와 사회 전반에 경각심을 일깨우는 계기가 될 것입니다.
인류가 전지전능한 AI의 실존적 위협에 직면하기 전에, 우리는 우리는 이제 변덕스럽고 예측할 수 없으며 때로는 기만적인 또 다른 형태의 지능과 세상을 공유하고 있다는 보다 평범한 현실을 받아들여야 합니다라는 사실을 분명히 깨달을 것입니다. .
Ar위브,Ar위브의 작동 방식과 존재의 의미 황금 금융,이 문서에서는 Ar위브의 작동 방식과 그 가치에 대한 간략한 개요를 제공합니다.
미국 경제의 하락세, 글로벌 유동성 긴축, 국내 산업 정책의 예상보다 낮은 연착륙, '블랙스완' 이벤트를 앞둔 미국 대선, 글로벌 지정학적 혼란이 예상됩니다.
미국 S&P 500 지수(미국 500대 기업 주가 지수)의 하락세는 7월 중순의 정점과 '폭락'이 시작된 7월 말 수준보다 여전히 낮은 수준입니다. 이러한 하락세의 원인은 무엇일까요? 이것이 미국 경제에 더 심각한 문제가 있다는 신호일까요?
8월 8일, 미국 연방준비제도이사회는 펜실베이니아에 본사를 둔 커스터머 뱅크에 대해 대대적인 집행 조치를 취했으며, 이는 암호화폐 관련 사업에 대한 미국 정부의 규제가 점차 강화되고 있음을 의미합니다.
시장은 일련의 긍정적인 뉴스에 힘입어 강세장 시작 전의 우울함을 서서히 떨쳐내고 있습니다.
초기 이더리움 투자자인 노보그라츠는 암호화폐에 대해 낙관적입니다. 약세장 이후 리스크 감소. 세 가지 성장 동력: 규제 명확성, 연준의 금리 인하 가능성, 비트코인 ETF. 12~18개월 내 규제 변화를 예측하고, ETF를 주요 채택 촉매제로 보고 있습니다.
Ethereum Foundation의 Danny Ryan이 Merge가 보안을 강화하는 방법과 지분 증명이 개발자에게 미치는 영향에 대해 설명합니다.
ANZ의 포트폴리오 뱅킹 서비스 책임자인 나이젤 돕슨(Nigel Dobson)은 "이를 심층적으로 살펴본 결과 이것이 금융 시장 인프라의 중요한 프로토콜 변화라는 결론에 도달했습니다."라고 말했습니다.