구글의 제미니 3.0은 자체 개발한 AI 칩인 TPU 버전 7을 활용해 경쟁사를 능가하며 엔비디아의 독주에 도전하고 있습니다.
AI 기술이 발전함에 따라 저전력 반도체에 대한 수요가 증가하고 있습니다.
삼성과 SK하이닉스와 같은 기업들도 이러한 변화에 적응하고 있으며, GPU와 함께 맞춤형 반도체 시장이 성장하고 있음을 보여줍니다.
Google’s Gemini 3.0 outperforms competitors by utilizing its own AI chip, TPU version 7, challenging NVIDIA’s dominance.
The demand for low-power semiconductors is rising as AI technologies evolve.
Companies like Samsung and SK Hynix are adapting to this shift, indicating growth in the custom semiconductor market alongside GPUs.
AI 성능 혁신:
독점 TPU v7 칩으로 학습된 Google의 Gemini 3.0은 휴머니티 라스트 잼 벤치마크(목표 5% 대비)에서 37.5%, 수학 아레나 에이펙스(목표 4% 대비)에서 23.4%를 달성하여 OpenAI의 GPT-5.1과 인류학의 클로드 손을 크게 능가하여 최고 수준의 AI 성능에서 엔비디아의 GPU 독점을 깨뜨렸습니다.
맞춤형 AI 칩 생태계:
Google은 Broadcom과 함께 TPU 칩을 설계하고 TSMC를 통해 제조하며 SK하이닉스의 HBM3e 메모리를 통합하고, Amazon(Train), Meta(MTAI), Tesla와 같은 기업은 맞춤형 AI 칩을 개발하지만, 최근 Tesla는 자체 칩 팀을 해체하여 주요 기술 대기업만이 독립적인 칩 개발을 지속할 수 있음을 시사했습니다.
메모리 반도체 시장 변화:
AI 교육에서 추론 기반 시스템으로의 전환은 AI 서버에서 저전력 LPDDR5X 반도체(원래 스마트폰/태블릿 부품)에 대한 수요를 증가시키며, 삼성은 이 신흥 시장에서 경쟁 우위를 점하고 있으며, HBM 메모리 수요의 지속적인 성장은 삼성전자와 SK하이닉스 모두에게 이익이 되고 있습니다.
전력 소비 문제:
대형 기술 기업들은 주로 전력 소비 문제를 해결하고 AI 산업 성장을 제한하며 엔비디아에 대한 의존도를 낮추기 위해 맞춤형 AI 칩을 개발하지만, 높은 개발 장벽으로 인해 맞춤형 AI 칩은 GPU 시장을 대체하기보다는 함께 성장할 것으로 예상됩니다.
반도체 공급망 승자:
삼성전자와 SK하이닉스는 AI 투자 가속화로 GPU와 맞춤형 반도체 시장 모두에서 성장세를 이어가면서 AI 학습용 HBM 메모리와 추론 워크로드용 LPDDR5X라는 이중 수요 흐름의 혜택을 누릴 수 있는 위치에 있습니다.
AI Performance Breakthrough:
Google’s Gemini 3.0, trained on proprietary TPU v7 chips, achieved 37.5% on Humanity Last Jam benchmark (vs. 5% target) and 23.4% on Math Arena Apex (vs. 4% target), significantly outperforming OpenAI’s GPT-5.1 and Anthropic’s Claude Son, breaking Nvidia’s GPU monopoly on top-tier AI performance.
Custom AI Chip Ecosystem:
Google designs TPU chips with Broadcom, manufactures via TSMC, and integrates HBM3e memory from SK Hynix, while companies like Amazon (Train), Meta (MTAI), and Tesla develop custom AI chips, though Tesla recently disbanded its in-house chip team, indicating only major tech giants can sustain independent chip development.
Memory Semiconductor Market Shift:
The transition from AI training to inference-based systems drives demand for low-power LPDDR5X semiconductors (originally smartphone/tablet components) in AI servers, with Samsung holding a competitive advantage in this emerging market alongside continued growth in HBM memory demand benefiting both Samsung Electronics and SK Hynix.
Power Consumption Challenge:
Big tech companies develop custom AI chips primarily to address power consumption issues limiting AI industry growth and reduce dependence on Nvidia, though custom AI chips are expected to grow alongside rather than replace the GPU market due to high development barriers.
Semiconductor Supply Chain Winners:
Samsung Electronics and SK Hynix are positioned to benefit from dual demand streams: HBM memory for AI training and LPDDR5X for inference workloads, as AI investment acceleration drives growth across both GPU and custom semiconductor markets.
