배경
OpenAI의 GPT 제품군에서 Google의 Gemini부터 다양한 오픈 소스 모델까지, 고급 AI는 우리의 일과 생활 방식을 크게 바꾸고 있습니다. 그러나 기술이 빠른 속도로 발전하고 있는 반면, 제한이 없거나 악의적인 대규모 언어 모델의 출현이라는 어두운 면이 우려의 대상으로 떠오르고 있습니다.
비제한 LLM은 주류 모델에 내장된 보안 및 윤리적 제약을 우회하기 위해 의도적으로 설계, 수정 또는 '탈옥'된 언어 모델입니다. 주류 모델에 내장된 보안 메커니즘과 윤리적 제약을 우회하기 위해 의도적으로 설계되었거나 "탈옥"된 LLM을 말합니다. 주류 LLM 개발자는 일반적으로 자신의 모델이 혐오 발언, 허위 정보, 악성 코드 또는 불법 활동에 대한 지침을 생성하는 데 사용되는 것을 방지하기 위해 상당한 리소스를 투입합니다. 그러나 최근 몇 년 동안 일부 개인이나 조직은 사이버 범죄와 같은 동기에 대한 제한이 없는 자체 모델을 찾거나 개발하기 시작했습니다. 이러한 점을 염두에 두고 이 글에서는 일반적인 비제한적 LLM 도구를 살펴보고, 암호화폐 업계에서 이러한 도구가 오용되는 방식을 설명하며, 관련 보안 문제와 이를 해결할 수 있는 방법을 살펴봅니다.
비제한적 LLM의 작동 방식악용. ?
악성 코드 작성, 피싱 이메일 제작, 사기 조율 등 전문적인 지식이 필요했던 작업이 이제 무제한 LLM의 도움으로 프로그래밍 경험이 없는 일반인들도 쉽게 접근할 수 있게 되었습니다. 공격자는 오픈 소스 모델의 가중치와 소스 코드에 액세스하여 악성 콘텐츠, 편향된 문장 또는 불법 명령으로 데이터 세트를 미세 조정함으로써 맞춤형 공격 도구를 구축할 수 있습니다.
이 모델은 여러 가지 위험을 초래합니다. 공격자는 모델을 '땜질'하여 특정 대상을 기반으로 더욱 기만적인 콘텐츠를 생성하여 일반 LLM의 콘텐츠 및 보안 제한을 우회할 수 있습니다. 또한 이 모델은 피싱 웹사이트의 코드 변형을 빠르게 생성하거나 다양한 소셜 플랫폼에 맞게 사기 문구를 맞춤화하는 데 사용될 수 있으며, 오픈 소스 모델의 접근성과 수정 가능성은 불법 거래와 착취의 온상이 되는 지하 AI 생태계를 형성하고 확산하는 데 기여하고 있습니다. 다음은 이러한 무제한 LLM에 대한 간략한 개요입니다.
WormGGWormG Worm. span>PT: 블랙 에디션 GPT
WormGPT는 공개적으로 악성 코드를 판매하는 지하 포럼입니다. LLM을 공개적으로 판매하는 지하 포럼으로, 개발자들은 이 포럼이 윤리적 제한이 없으며 GPT 모델의 블랙 버전이라고 명시적으로 주장합니다. GPT-J 6B와 같은 오픈 소스 모델을 기반으로 하며 멀웨어와 관련된 대량의 데이터로 학습됩니다. 사용자는 한 달 이용료로 최저 189달러를 지불하며, WormGPT의 가장 악명 높은 용도는 매우 사실적이고 그럴듯한 비즈니스 이메일 침해(BEC) 공격 이메일과 피싱 이메일을 생성하는 것입니다. 암호화 시나리오의 일반적인 악용 사례는 다음과 같습니다.
피싱 이메일/정보 생성:암호화폐 거래소, 지갑 또는 잘 알려진 프로젝트를 모방하여 사용자에게 '계정 확인' 요청을 보내 악성 링크를 클릭하거나 개인 키/헬프워드를 공개하도록 유도합니다.
악성 코드 작성:기술이 부족한 공격자가 지갑 파일을 탈취하고 클립보드를 모니터링하며 키 입력 및 기타 기능을 기록하는 악성 코드를 작성하도록 돕습니다.
자동화된 사기 유도:가짜 에어드랍이나 투자에 참여하도록 유도하는 잠재 피해자에게 자동 응답 프로젝트에 참여하도록 유도하는 자동 응답.


다크버트는 한국과학기술원(KAIST) 연구진이 S2W사와 공동으로 개발한 언어 모델입니다. 다크웹 데이터(예: 포럼, 암시장, 유출된 자료)에 대한 사전 교육을 제공하며, 사이버 보안 연구자와 법 집행 기관에 다크웹 생태계에 대한 이해를 높이고 불법 활동을 추적하며 잠재적 위협을 식별하고 위협 인텔리전스를 확보하는 것을 초기 목표로 삼고 있습니다.
DarkBERT는 긍정적인 의도로 설계되었지만, 악의적인 행위자가 다크웹에 있는 데이터, 공격 전술, 불법 거래 전략 및 기타 민감한 콘텐츠에 액세스하거나 유사한 기술을 사용하여 무제한으로 모델을 학습시킬 경우, 다크웹에 있는 데이터는 악의적인 공격자에게 노출될 수 있습니다. 그 결과는 상상할 수 없을 정도로 심각합니다. 암호화 시나리오의 잠재적 오용 사례는 다음과 같습니다.
FraudGPT: 온라인 사기의 스위스 아미 나이프
FraudGPT는 WormGPT의 업그레이드된 다목적 버전이라고 주장하며 주로 다크웹과 해커 포럼에서 200~1,700달러의 월 사용료를 받고 판매되고 있습니다. 암호화 시나리오에서 악용되는 일반적인 방법은 다음과 같습니다:
암호화된 항목의 위조:
암호화된 항목의 위조:. 가짜 백서, 공식 웹사이트, 로드맵, 가짜 ICO/IDO를 위한 마케팅 카피 생성: 피싱 페이지 일괄 생성:잘 알려진 암호화폐 거래소의 로그인 페이지 또는 지갑 연결 인터페이스를 모방한 피싱 페이지를 빠르게 생성할 수 있습니다.
소셜 미디어 하이드로 캠페인:사기 토큰에 대한 가짜 리뷰와 선전을 대량으로 생성하여 사기 토큰을 유도하거나 경쟁 프로젝트의 신용을 떨어뜨립니다.
사회 공학 공격:챗봇은 사람의 대화를 모방하여 의심하지 않는 사용자와의 신뢰를 쌓고 의도하지 않게 속일 수 있습니다. 신뢰를 쌓고 실수로 민감한 정보를 공개하거나 유해한 행동을 하도록 유도할 수 있습니다. align: left;">GhostGPT는 윤리적 제약이 없는 것으로 명시된 AI 챗봇이며, 암호화 시나리오에서 악용되는 일반적인 방법은 다음과 같습니다.
고도화된 피싱 공격:주류 거래소를 사칭하여 가짜 KYC 확인 요청, 보안 경고 또는 계정 동결 알림을 발행하는 고도로 에뮬레이션된 피싱 이메일을 생성합니다.
스마트 계약 악성 코드 생성:공격자는 프로그래밍 지식 없이도 스마트 계약용 악성 코드를 빠르게 생성할 수 있습니다. GhostGPT는 숨겨진 백도어 또는 사기 로직이 포함된 스마트 컨트랙트를 빠르게 생성하여 러그 풀 사기 또는 탈중앙화 금융 프로토콜에 대한 공격을 수행할 수 있습니다.
다형성 암호화폐 탈취자:지속적으로 변형하여 지갑 파일, 개인 키, 니모닉을 훔칠 수 있는 악성코드를 생성합니다. 다형성 특성으로 인해 기존의 서명 기반 보안 소프트웨어로는 탐지하기 어렵습니다.
사회공학적 공격:공격자는 AI가 생성한 스크립트와 결합하여 디스코드, 텔레그램 또는 메시지 형태로 사회공학적 공격을 일으킬 수 있습니다. 디스코드, 텔레그램 및 기타 플랫폼에 봇을 배포하여 사용자가 가짜 NFT 캐스팅, 에어드랍 또는 투자 프로젝트에 참여하도록 유도할 수 있습니다.
심각한 가짜 사기 : 다른 AI 도구와 함께 GhostGPT를 사용하여 암호화폐 프로젝트 설립자, 투자자 또는 거래소 임원의 목소리를 스푸핑하여 전화 사기 또는 비즈니스 이메일 침해(BEC) 공격을 수행할 수 있습니다.
Venice.ai: 무수정 접속의 잠재적 위험
Venice.ai: 무수정 접속의 잠재적 위험
Venice.ai는 검열이 덜하거나 제한이 느슨한 일부 모델을 포함하여 광범위한 LLM에 대한 액세스를 제공합니다. 사용자가 다양한 LLM 기능을 탐색할 수 있는 개방형 포털로 자리매김하여 진정한 제한 없는 AI 경험을 위한 가장 진보되고 정확하며 검열되지 않은 모델을 제공하지만, 부도덕한 개인이 악성 콘텐츠를 생성하는 데 악용할 수도 있습니다. 플랫폼의 위험 요소는 다음과 같습니다.
검열을 우회하는 악성 콘텐츠 생성:공격자는 플랫폼에서 덜 제한적인 모델을 사용하여 피싱 템플릿, 허위 선전 또는 공격 아이디어를 생성할 수 있습니다.
힌트 엔지니어링의 문턱 낮추기:공격자가 '탈옥'의 정교함이 없더라도 플랫폼을 사용하여 피싱 템플릿이나 공격 아이디어를 생성할 수 있을 수 있습니다.
프롬프트 엔지니어링의 문턱 낮추기:공격자가 고도의 '탈옥' 프롬프트 기술이 없더라도 제한된 출력에 쉽게 접근할 수 있습니다.
반복 공격 전술 가속화:공격자는 플랫폼을 활용하여 다양한 모델이 악의적인 명령에 어떻게 반응하는지 빠르게 테스트할 수 있습니다. 다양한 모델이 어떻게 반응하는지 빠르게 테스트하고 사기 스크립트와 공격 기법을 최적화할 수 있습니다.
끝부분에 작성
제한 없는 LLM의 등장은 더 큰 규모와 자동화 기능으로 더욱 정교한 공격에 맞서는 사이버 보안의 새로운 패러다임을 의미합니다. 이러한 모델은 공격 임계값을 낮출 뿐만 아니라 더 교묘하고 기만적인 새로운 유형의 위협을 도입합니다.
공격과 방어가 지속적으로 확대되는 이 게임에서 미래의 위험에 대처하는 유일한 방법은 보안 생태계의 모든 당사자가 함께 노력하는 것입니다. 한편으로는 탐지 기술에 대한 투자를 확대하고 피싱 콘텐츠, 스마트 계약 취약점 악용, 악성 LLM이 생성하는 악성 코드를 식별 및 차단할 수 있는 기술을 연구 개발할 필요가 있습니다. 한편, 모델에 대한 탈옥 방지 기능 구축을 추진하고 금융, 코드 생성 등 주요 시나리오에서 악성 콘텐츠의 출처를 추적할 수 있는 워터마킹 및 추적 메커니즘을 연구하는 한편, 악성 모델의 개발과 오용을 원천적으로 제한할 수 있는 건전한 윤리 강령과 규제 메커니즘을 구축해야 합니다.