Meta ha avviato i test sul suo primo chip proprietario per l’addestramento dei modelli di intelligenza artificiale, mirando a ridurre la dipendenza da Nvidia. Secondo Reuters, questo passo rafforza l’autonomia tecnologica dell’azienda.
Attualmente, sono in fase di valutazione piccoli lotti di chip interni. Se i risultati saranno positivi, Meta ne amplierà la produzione per integrarli nei suoi data center, nonostante l’adozione recente delle GPUNvidiaBlackwellGB200.
Negli ultimi anni, anche altre aziende, como OpenAI collaborando con Broadcom e TSMC, stanno intentando a sviluppare un proprio chip AI. Mentre Meta ha affidato a TSMC la produzione del proprio chip sperimentale.
Come riportato da Tom’sHardware, Meta e Broadcom potrebbero collaborare alla fase di “tape-out” del loro primo acceleratore AI, finalizzando il design del primo acceleratore AI dell’azienda. Il progetto fa parte del piano di sviluppo hardware avviato con il programma “Meta Training and Inference Accelerator” (MTIA).
Dal 2023, il chip MTIA viene usato per l’inferenza nei sistemi di raccomandazione di Facebook e Instagram. Ora l’obiettivo è estenderne l’uso anche all’addestramento AI, un processo più complesso e dispendioso in termini di risorse.
Non è chiaro se i nuovi chip adotteranno l’architettura open-source RISC-V, già impiegata in passato. Tuttavia, il controllo diretto dell’hardware è sempre più strategico nel settore.
Reuters riporta che Meta prevede di adottare i suoi chip entro il 2026 per ridurre i costi delle infrastrutture AI. Attualmente, la società è tra i principali clienti di Nvidia, avendo investito ingenti risorse nell’acquisizione di GPU per l’addestramento di modelli avanzati, ma ora cerca soluzioni più scalabili.
Meta aveva inizialmente previsto di introdurre i propri chip nel 2022, ma problemi tecnici ne hanno ritardato lo sviluppo. Tuttavia, nel febbraio 2024, Reuters ha confermato che Meta stava procedendo con lo sviluppo della seconda generazione di chip MTIA.










