도대체 뭐가 잘못될 수 있겠어?

Minisforum은 대규모 언어 모델(LLM)을 로컬 환경에서 구동하도록 처음부터 설계된 NAS를 출시할 예정이라고 발표했습니다. 아직 출시되지 않은 N5 Max AI NAS는 Ryzen AI Max+ 395 Strix Halo APU를 탑재했으며, 다양한 작업을 수행하도록 설정할 수 있는 오픈 소스 AI 프레임워크인 OpenClaw가 기본 설치됩니다. 가격 및 출시일은 아직 공개되지 않았습니다.
소형 폼팩터(small-form-factor) 제조업체인 Minisforum은 NAS의 전체 사양, 특히 스토리지 용량을 공개하지 않았습니다. 현재 공식적으로 알려진 정보는 CPU에 국한되며, 이는 AMD의 플래그십 Strix Halo APU로, 16개의 Zen 5 CPU 코어, 최대 5.1GHz의 클럭 속도, 40 CU의 Radeon 8060S iGPU, XDNA 2 NPU, 그리고 64MB의 L3 캐시를 자랑합니다. 395+ 모델은 32GB에서 128GB의 시스템 메모리로 구성 가능하며, Minisforum이 64GB에서 128GB의 더 높은 메모리 용량을 채택할 가능성이 높습니다. LLM은 메모리 용량 증가에 따라 매우 뛰어난 확장성을 보이는 것으로 알려져 있습니다.

그럼에도 불구하고, 저희는 시스템의 다른 사양에 대해 몇 가지 논리적인 추측을 할 수 있습니다. Minisforum의 N5 시리즈 Max 버전은 기존 N5 AI NAS 및 N5 AI Pro NAS와 동일한 섀시(chassis)를 사용하는 것으로 보입니다. 이 추측이 사실이라면, Max 버전은 N5 AI/N5 AI Pro와 유사한 스토리지 구성을 가질 가능성이 높습니다. 이는 5개의 3.5/2.5인치 HDD 드라이브 베이와 3개의 M.2 슬롯(이 중 2개가 U.2 드라이브를 지원)으로 구성됩니다. HDD 베이만 해도 드라이브당 최대 30TB까지 지원합니다.
네트워크 연결 스토리지 시스템에서 AI 가속 기능은 컴퓨팅 산업에서 빠르게 성장하는 트렌드입니다. NAS에 이러한 기능이 탑재되면, 사용자가 NAS와 로컬 AI 서버 역할을 동시에 수행할 수 있게 됩니다. 또한, LLM을 로컬화하면 모든 데이터 처리 및 상호 작용이 장치 내부에서 이루어지므로 인터넷으로 데이터가 유출될 위험이 없어 보안이 크게 향상됩니다.
OpenClaw는 Copilot이나 Gemini 같은 LLM 그 자체는 아닙니다. 대신, 다양한 작업을 수행하도록 프로그래밍할 수 있는 AI 프레임워크입니다. 예를 들어, OpenClaw는 대화형 프롬프트로 제어할 수 있는 사진 검색 엔진을 구동하도록 프로그래밍될 수 있습니다. 또한, 프롬프트를 기반으로 비디오 편집, 이메일 자동화, 소셜 미디어 게시물 발행 등 다용도로 활용할 수 있습니다. 구체적으로 OpenClaw는 메시지를 LLM으로 라우팅하고, LLM이 사용자의 요청을 이행하기 위해 어떤 도구를 사용해야 할지 결정하는 방식으로 작동합니다.

OpenClaw는 폭발적인 인기를 얻었지만, 보안은 이 프레임워크의 가장 큰 약점 중 하나입니다. 제대로 설정하지 않으면 민감한 데이터가 인터넷으로 유출될 수 있는 앱 자체의 보안 문제 외에도, OpenClaw 사용자들이 서드파티 확장 기능을 설치하는 허브인 ClawHub에서 악성 콘텐츠가 발견된 사례가 있습니다.
최신 뉴스, 분석 및 리뷰를 피드에서 받아보시려면 Tom's Hardware를 Google News에서 팔로우하거나 즐겨찾기 출처로 추가하세요.