[go: up one dir, main page]

Publicité

SK Hynix et TSMC s'allient pour développer la nouvelle mémoire de l'intelligence artificielle 
Premium

Contenu réservé aux abonnés

Les deux géants des semi-conducteurs vont lancer en 2026 une mémoire à large bande passante (HBM) ultrapuissante capable de doper les performances de calcul des grands modèles de langage de Meta, Google ou OpenAI.

Pour tenter de garder son avance sur Samsung Electronics sur le marché des puces mémoires dédiées à l'intelligence artificielle, SK Hynix va collaborer avec le taïwanais TSMC.
Pour tenter de garder son avance sur Samsung Electronics sur le marché des puces mémoires dédiées à l'intelligence artificielle, SK Hynix va collaborer avec le taïwanais TSMC. (Kim Hong-Ji/Reuters)

Par Yann Rousseau

Publié le 19 avr. 2024 à 15:27Mis à jour le 19 avr. 2024 à 16:19
PremiumRéservés à nos abonnés Premium

Seules trois entreprises dans le monde savent aujourd'hui fabriquer les mémoires à large bande passante (HBM) dédiées à l'intelligence artificielle générative. Dominant ce marché à la croissance fulgurante, le sud-coréen SK Hynix, qui devance légèrement Samsung Electronics et très largement l'américain Micron Technologies, a annoncé, vendredi, qu'il allait s'allier au géant taïwanais TSMC pour développer la future génération de ces composants stratégiques.

Les deux sociétés, qui viennent de signer un protocole d'accord, assurent qu'elles seront en mesure de commercialiser des mémoires de sixième génération, ou HBM4, à partir de 2026. « Grâce à cette coopération, nous renforcerons notre position de leader sur le marché en tant que fournisseur de mémoire d'IA », a commenté Justin Kim, le président la division AI Infra chez SK Hynix.

Ce contenu est réservé aux abonnés Premium et Premium Entreprises

Offrez-vous une immersion exclusive dans le monde des affaires avec l’offre Premium

    Je profite du mois OFFERTDéjà abonné ? Connectez-vous
    Publicité