페이지를 불러오는 중...
페이지를 불러오는 중...
"팹리스"에 대한 검색 결과 13개

정부가 'K-엔비디아'로 낙점하고 6,400억원을 쏟아부은 한국 AI 반도체 팹리스 리벨리온(Rebellions). 2026년 3월 기업가치 3조 4,000억원으로 역대 최대 규모 프리IPO를 마감했다. MIT 박사 창업자가 스페이스X·모건스탠리를 거쳐 돌아와 만...

하이퍼엑셀(HyperAccel)은 KAIST 김주영 교수가 Microsoft Azure에서 9년간 서버 가속기 프로젝트를 이끈 경험을 바탕으로 2023년 창업한 LLM 추론 특화 AI 반도체(팹리스) 스타트업으로, HBM 대신 LPDDR5X를 채택한 독자 아키텍처...

애플 A11 바이오닉 NPU 설계를 주도한 수석 엔지니어가 실리콘밸리 연봉 500만 달러를 포기하고 한국에서 창업했다. 딥엑스(DeepX)의 김녹원 대표다. 엔비디아 GPU의 20분의 1 전력으로 동급 이상의 AI 연산을 수행하는 온디바이스 NPU로, 로봇·CCT...

2025년 메타(Meta)의 약 8억 달러(약 1조 1,000억원) 인수 제안을 거절하고 독자 성장을 선택한 퓨리오사AI(FuriosaAI). LG AI연구원·OpenAI 기술 검증을 통과한 RNGD(레니게이드) 칩, Microsoft Azure 마켓플레이스 입점...
삼성전자 엑시노스 개발 주역·삼성SDI 중대형전지 사업부 총괄 출신 정세웅 대표(64세)가 2024년 설립한 배터리 관리시스템(BMS) 반도체 스타트업 아나배틱세미(AnabatIC Semi)가 2026년 3월 25일 시리즈B 라운드에서 총 150억원 투자를 유치했...
KAIST 전기·전자공학부 석좌교수 정명수 대표가 2022년 창업한 파네시아는 차세대 반도체 연결 표준 'CXL(컴퓨트익스프레스링크)' 분야에서 세계 최초로 CXL 3.0 풀시스템을 공개하며 메타, AMD, 엔비디아 등 글로벌 빅테크로부터 러브콜을 받고 있다. 2024년 11월 시리즈A에서 800억원을 유치하며 3,400억원 기업가치를 인정받았고, 창업 2년 만에 누적 투자금 1,000억원을 조달해 국내 팹리스 스타트업 역대 최대 규모를 기록했다. 2025년 1월 '대한민국 과학기술인상' 첫 수상자로 선정되며 기술력을 공인받았다.
AI 추론 전용 반도체 팹리스(설계 전문) 기업 리벨리온(Rebellions, 대표 박성현)이 2026년 3월 31일 총 6,400억원 규모의 프리IPO(상장 전 투자 유치) 라운드를 마무리했다. 이번 투자로 기업가치는 3조4,000억원에 달한다. 누적 투자액은 ...
AI 반도체 팹리스(Fabless, 반도체를 직접 생산하지 않고 설계만 전담하는 기업) 스타트업 엑시나(XCENA, 대표 김진영)가 2026년 4월 시리즈B 라운드에서 1500억원 조달을 사실상 확정했다. 에이티넘인베스트먼트가 리드 투자자로 나섰으며, IMM인베스...
AI 데이터센터 인터커넥트(데이터 연결 기술) 전문 팹리스 반도체 스타트업 포인투테크놀로지(Point2 Technology, CEO 션 박·박진호)가 2026년 4월 21일(현지시간) 엔비디아의 벤처 투자 부문 NVentures(엔벤처스), 매버릭 실리콘(Mave...
중소벤처기업부가 KAI·LIG넥스원·카카오모빌리티·한국수자원공사 등 30개 수요기업의 과제를 내걸고 협업 스타트업 30개사를 모집한다. 최대 1.4억원 사업화 지원금에 창업성장기술개발(최대 2억원) 및 구매연계형 R&D(최대 6억원) 연계까지 포함된다. 마감은 2...
2월 24일 하루, AI 추론 칩 스타트업 두 곳이 합산 $6억(약 8,400억 원)을 끌어모았다 SambaNova Systems $3.5억 Series E, Axelera AI $2.5억+...
AI가 코드를 쓰는 시대는 이미 왔다 GitHub 공개 커밋의 4%를 AI가 작성하고, 연말이면 20%를 넘을 전망이다 그런데 한 가지 질문이 남는다 — AI가 쓴 그 코드가 맞는지 누가 검증하나...
이번 주만 AI 칩 스타트업에 5,000억원 이상 투자 — 글로벌 추론 칩 경쟁이 한국 팹리스에 의미하는 것 2월 19일, 토론토의 스타트업 Taalas가 $169M(약 2,300억원)을 투자 받았습니다. 이 회사가 하는 일은 꽤 과격합니다. AI 모델의 가중치(weights)를 아예 반도체 트랜지스터에 새겨 넣는 겁니다. 소프트웨어로 할 일을 하드웨어에 각인하는 거죠. 결과요? 메타의 Llama 3.1 8B 모델 기준, 엔비디아 H200 대비 73배 빠른 추론 속도, 1/10 전력 소비. "그런 게 가능해?" 싶겠지만, 이건 시작에 불과합니다.