Le groupe sud-coréen Samsung accélère la production de ses puces d’IA avancées après un trimestre record dans le secteur de la mémoire. Longtemps à la traîne derrière SK Hynix, le groupe sud-coréen réagit avec vigueur à la demande explosive des géants du cloud et des constructeurs de serveurs.
Le troisième trimestre 2024 restera marqué dans les livres comptables de Samsung Electronics. Son activité phare, les semi-conducteurs, a généré un bénéfice opérationnel de sept mille milliards de wons, soit près de cinq milliards de dollars. Une progression de 80 % sur un an. Derrière ces chiffres se cache une réalité simple : le monde entier construit des infrastructures dédiées à l’intelligence artificielle et Samsung entend bien y jouer un rôle central.
Kim Jaejune, responsable de la division mémoire chez Samsung, s’est exprimé sans détour à Reuters lors de la conférence téléphonique post-résultats. « La demande de nos clients pour l’année prochaine dépassera notre offre, même en tenant compte de nos investissements et de nos plans d’expansion de capacité », a-t-il affirmé. Ces mots traduisent une confiance retrouvée, mais aussi une urgence stratégique.
L’entreprise mise désormais sur les puces HBM3E, des mémoires à haute bande passante indispensables aux processeurs d’IA modernes. Samsung confirme qu’il fournira ces puces à l’ensemble de ses clients concernés, une allusion claire à Nvidia dont les cartes graphiques dominent le marché de l’apprentissage automatique. Jusqu’à récemment, SK Hynix détenait l’avantage technologique et commercial. Aujourd’hui, Samsung rattrape son retard à grande vitesse.
Les investisseurs ont salué cette inflexion. L’action Samsung a bondi de plus de cinq pour cent après la publication des résultats, loin devant l’indice KOSPI. Ce rebond n’est pas un feu de paille. Il reflète une transformation profonde du secteur. La pénurie de composants classiques, destinés aux smartphones ou aux ordinateurs portables, s’explique par la réorientation massive des lignes de production vers les puces d’intelligence artificielle avancées. Une tendance qui devrait se poursuivre en 2026.
« La demande en mémoire sera bien plus forte et rapide que d’habitude », a insisté Kim Jaejune. Cette accélération entraîne une hausse des prix, ce qui est bénéfique pour les marges. Mais Samsung ne compte pas s’arrêter là. Les échantillons de sa prochaine génération, les HBM4, sont déjà entre les mains de clients stratégiques. La production de masse débutera l’an prochain. L’objectif est de sécuriser des parts de marché avant que la concurrence ne consolide ses positions.
Suivez toute l’actualité d’Essential Homme sur Google Actualités, sur notre chaîne WhatsApp, ou recevoir directement dans votre boîte mail avec Feeder.
L’entreprise prévoit d’augmenter fortement ses dépenses d’investissement en 2025. Un signal fort envoyé aux marchés. Samsung ne veut plus subir la vague de l’IA, elle entend la chevaucher. Dès 2026, la capacité de production de bits HBM sera « significativement élargie », selon Kim. Et même cela pourrait ne pas suffire. « Des demandes supplémentaires continuent d’arriver, nous examinons donc en interne la possibilité d’une nouvelle expansion de la capacité », a-t-il ajouté.
Cette offensive intervient alors que certains analystes s’interrogent sur la durabilité de l’actuel boom. OpenAI, Microsoft, Meta et d’autres entreprises annoncent en effet des investissements colossaux dans les centres de données, sans garantie immédiate de retour sur investissement. Craint-on une bulle ? Peut-être. Mais pour Samsung, le calcul est simple : mieux vaut construire maintenant que risquer de manquer le train de l’avenir.
La diversification de Samsung (smartphones, téléviseurs, électroménager) lui a longtemps permis d’absorber les chocs sectoriels. Aujourd’hui, c’est sa division de semi-conducteurs qui tire tout le groupe vers le haut. Un retournement remarquable après plusieurs trimestres de performances décevantes. Le géant coréen avait pris du retard dans la course à l’intelligence artificielle. Il comble aujourd’hui ce retard grâce à une agilité retrouvée et à des moyens considérables.
SK Hynix affiche une confiance similaire. Mercredi, le concurrent direct de Samsung évoquait un « super cycle » prolongé, alimenté par l’IA. Tous ses stocks pour 2025 sont déjà vendus. Samsung suit le même chemin, avec quelques mois de décalage. Mais le rythme s’accélère. La guerre des mémoires ne se joue plus seulement en termes de volume, mais aussi de finesse technologique, de rapidité d’exécution et de capacité à anticiper les besoins des hyperscalers.
Les prochains mois seront décisifs. Si Samsung parvient à industrialiser les HBM4 à grande échelle dès 2025, l’entreprise redeviendra un partenaire incontournable pour Nvidia et les autres concepteurs de puces d’intelligence artificielle. Le pari est risqué et coûteux, mais potentiellement très lucratif. Le marché mondial de l’IA n’a pas encore atteint son plafond. Et chaque serveur supplémentaire installé quelque part dans le monde nécessite des dizaines, voire des centaines de puces mémoire avancées.
 



 
		 
		 
		 
		