Deepseek est un énorme positif pour toutes les actions de l'IA – et Apparent joue en particulier
Aie… C'est peut-être, en un mot, la meilleure façon de décrire la récente action des prix dans les actions d'IA. Et tout a été stimulé par le lancement de En profondeur, Le propre modèle d'IA puissant de la Chine.
Selon Ben Reitzes, responsable de la recherche technologique chez Melius, Deepseek réalise un meilleur apprentissage et une utilisation plus efficace de la mémoire, comme l'a noté CBS News. Mais peut-être le vrai kicker? C'est aussi beaucoup moins cher que le chatppt. Cette révélation a incité les craintes à Wall Street que les entreprises n'auront pas besoin de dépenser autant d'argent pour développer une IA de nouvelle génération comme précédemment.
En conséquence, un fabricant de puces AI Nvidia (NVDA) s'est écrasé jusqu'à 15%. Vertiv (VRT), un fournisseur d'équipement de centre de données, a obtenu un coup d'accès, plongeant plus de 25%. VISTRA (Vst) et Oklo (Oklo) – Deux sociétés d'énergie nucléaire espérant alimenter le boom du centre de données de l'IA – chacune a chuté de 20%.
Ce fut une journée terrible pour les actions d'IA.
Mais que se passe-t-il si je vous disais que toute cette vente d'inspiration profonde est en fait une opportunité d'achat fantastique?
Parce que c'est exactement ce que nous croyons.
Deepseek: un changement de paradigme potentiel
Deepseek de la Chine représente potentiellement un changement de paradigme perturbateur dans le monde des modèles d'IA fondamentaux.
Bien sûr, le modèle fonctionne un peu comme le chatppt. Mais comme le dit Giuseppe Settte de la réflexivité, il «n'activait que les parties les plus pertinentes de leur modèle pour chaque requête». Cela signifie que Deepseek est plus efficace que ses titulaires.
Mais la Pièce de Résistance? Deepseek est beaucoup moins cher que le chatppt.
En ce qui concerne les modèles d'IA, il y a deux coûts principaux – la formation et l'inférence; Ou combien ils coûtent pour se développer et combien ils coûtent régulièrement. Et semble-t-il, Deepseek a des coûts de formation et d'inférence significativement inférieurs que les modèles d'IA fondamentaux en place.
En effet, cela a coûté environ 80 millions de dollars pour former le chatppt-4. Les Gemini Ultra de Google ont coûté près de 200 millions de dollars. Aux États-Unis, des modèles fondamentaux d'IA ont pris plus de 100 millions de dollars pour s'entraîner.
Mais Deepseek affirme qu'il a coûté moins de 6 millions de dollars pour former son propre modèle d'IA, ce qui est peut-être même meilleur que ces autres IA à gros budget.
Pendant ce temps, Deepseek possède également environ 95% de coûts d'inférence inférieurs à Chatgpt. Son modèle de raisonnement – R1 – facture actuellement environ 0,55 $ par million de jetons d'entrée. (Un jeton est un personnage dans une requête, c'est-à-dire une lettre, une marque de ponctuation, etc.) Maintenant, Chatgpt charge sur une base mensuelle, donc ce n'est pas exactement une comparaison de pommes-pommes. Mais une ventilation de Bernstein a révélé que le titulaire facture autour de 15 $ par million de jetons d'entrée.
Le point étant: Deepseek aurait considérablement plus faible les coûts de formation et d'inférence que les modèles fondamentaux en place.
Comprendre l'effondrement initial du marché
Maintenant, Pourquoi est-ce important pour le marché?
Cette percée des coûts rapportée suggère que les entreprises dépenseront moins d'argent pour développer de nouveaux modèles d'IA au cours des prochaines années. Cela signifie moins d'argent dans la construction de l'infrastructure d'IA, moins d'argent pour les entreprises soutenant cette construction – et baissez également les cours des actions pour ces entreprises.
Un principe de base de la thèse de taureau AI-Stock a été que les entreprises et les gouvernements dépenseront collectivement des centaines de milliards de dollars par an pour développer toutes les infrastructures nécessaires pour soutenir le développement du modèle d'IA.
Ce principe de base reposait sur l'hypothèse critique (et, jusqu'à présent, incontestée) que les modèles d'IA nécessitent une tonne de temps, d'argent, de ressources et de pouvoir de calcul pour la construction.
Deepseek remet en question cette hypothèse.
Si les affirmations de l'entreprise sont vraies, les entreprises américaines pourraient reproduire les mêmes tactiques et méthodes utilisées pour créer Deepseek – parce que le modèle est open-source – pour réduire considérablement leurs propres coûts de formation et d'inférence. Dans ce monde, les entreprises et les gouvernements devraient dépenser beaucoup moins que prévu au cours des prochaines années pour créer de nouveaux modèles d'IA.
Bien sûr, cela signifie que le boom des infrastructures d'IA prévu peut être beaucoup plus petit que prévu. Par exemple, au lieu des entreprises et des gouvernements dépensant collectivement des centaines de milliards par an sur la construction de l'infrastructure d'IA en 2030, peut-être qu'ils dépensent… disons… 100 milliards de dollars par an.
C'est la grande peur qui conduit les stocks d'IA plus bas.
Deepseek News est optimiste pour les « applicateurs ''
Si les dépenses d'infrastructure d'IA au cours des prochaines années finissent par être un ordre de grandeur moins que prévu, moins d'argent se déroulera dans les stocks d'infrastructure d'IA comme la puce, le centre de données, les stocks d'énergie, etc. – ce que nous appelons les «constructeurs d'IA».
Notez que ces constructeurs d'IA étaient à l'épicentre de la récente vente du marché.
Pendant ce temps, les logiciels AI – ou «Appareils IA», comme nous aimons les appeler – a fait très bien hier. Les entreprises aiment Samsara (IoT), Procore (Pcor), Zscaler (Zs), Intuit (Intu), Lundi.com (MNDY), Serviron (MAINTENANT), Appfolio (Appf), Jour de travail (Way), Atlassien (ÉQUIPE), et d'autres se levèrent principalement au milieu de l'agitation. Après tout, si la percée du modèle Deepseek est duplicable, Les développeurs pourront dépenser moins pour construire des modèles d'IA.
Discret ou exagéré?
Maintenant, nous pensons qu'il est important de noter que Nous ne sommes généralement pas d'accord avec la réaction initiale du marché.
Comme nous l'avons présenté dans notre première déclaration sur la question, nous pensons que le marché est largement réagi de manière excessive aux nouvelles de Deepseek. Et en fait, Nous considérons le gros crash dans les actions d'IA comme une opportunité d'achat fantastique pour plusieurs raisons.
Pour commencer, Nous ne pensons pas que les réclamations de coûts de Deepseek devraient être prises à sa valeur nominale.
Il s'agit d'une entreprise chinoise, et les entreprises chinoises ont une longue histoire de surestimation des faits. Bien que le modèle soit open-source – et donc sa légitimité n'est pas en question – les allégations concernant les coûts de formation ne sont pas rigoureusement soutenues ou détaillées. Ils n'incluent également que les coûts de «formation officielle» de Deepseek-V3 et excluent les coûts associés aux recherches antérieures et aux expériences d'ablation sur les architectures, les algorithmes et les données.
Elon Musk et d'autres ont également mis en doute les coûts de formation de Deepseek. Il semble que le consensus général parmi les dirigeants de l'IA est que Deepseek peut être considérablement sous-estimé le nombre de GPU NVIDIA utilisés pour former le modèle.
Pendant ce temps, les coûts d'inférence sont simplement ce que Deepseek facture. Et pour tout ce que nous savons, Deepseek peut ne pas se soucier des bénéfices. Openai, en revanche, essaie de évaluer Chatgpt à un niveau qui rend l'entreprise rentable.
Étant une entreprise chinoise largement furtive, nous n'avons aucune idée de quel est l'objectif ultime de Deepseek. Par conséquent, nous ne savons pas à quoi ressemble sa rentabilité avec des coûts aussi faibles pour les utilisateurs.
Implications de la percée profonde
De plus, même en supposant que toutes les revendications de coûts de Deepseek sont vraies, Nous pensons que les implications d'une percée d'efficacité aussi massive sont extrêmement positives pour les actions d'IA.
En ce qui concerne les constructeurs d'IA, nous faisons pas Pensez que cela signifie que moins d'argent sera dépensé pour la construction de l'infrastructure. Le volume total d'argent dépensé pour les infrastructures d'IA au cours des prochaines années sera égal au coût de formation par modèle du nombre de modèles construits. Théoriquement, une percée d'efficacité signifie une baisse des coûts de formation. Mais cela devrait également signifier plus de modèles en cours de construction.
Quoi qu'il en soit, l'IA est toujours l'avenir. Chaque entreprise le sait. Donc, si les coûts de formation des modèles d'IA baissent considérablement, les gens pensent-ils vraiment que les entreprises réduiront leurs budgets d'IA? Non – Ils vont juste commencer à créer de plus en plus de modèles d'IA.
C'est l'essence du capitalisme compétitif.
Dire Coca-cola (Ko) et Pepsi (DYNAMISME) dépensent tous les deux le même montant sur les modèles d'IA pour prédire la demande et créer de nouveaux produits. Si Coca-Cola exploite la percée de l'efficacité Deepseek pour simplement réduire les coûts et exécuter les mêmes modèles d'IA… tandis que Pepsi se exploite pour réduire simultanément les coûts et Créez des dizaines de modèles supplémentaires qui prédisent avec précision la demande spécifique aux canaux… PEPSI pourrait gérer Coca-Cola hors des affaires.
Nous prévoyons que toutes les percées d'efficacité des modèles d'IA réduiront simultanément les coûts de formation par modèle et augmenteront le volume total de modèles formés, les deux se compensant largement, ayant un impact neutre net sur les dépenses globales de l'infrastructure.
Autrement dit, Nous voyons cette nouvelle comme des actions nettes et nettes des constructeurs AI.
AI et le paradoxe des Jevons
Pour les économistes dans la salle, ce n'est pas une nouvelle idée; il s'appelle Jevons Paradoxe.
Originaire de 19ème L'économiste britannique du siècle William Stanley Jevons, le paradoxe des Jevons déclare que les améliorations de l'efficacité d'une ressource ont tenu à augmenter – plutôt qu'à diminuer – la consommation globale de cette ressource. En effet, une plus grande efficacité réduit le coût d'une ressource, ce qui peut entraîner une demande accrue.
Cela s'est produit avec l'utilisation du charbon dans les années 1800. Améliorations de l'efficacité du moteur à vapeur a réduit la consommation de charbon par unité de production. Cependant, ces améliorations ont également rendu la technologie de charbon plus attrayante sur le charbon, conduisant à une adoption plus large et à une augmentation finalement de la consommation globale de charbon.
C'est également arrivé avec Internet. Au fil du temps, les ordinateurs sont devenus plus petits et moins chers – et l'accès à Internet est devenu beaucoup plus abordable. Cela nous a conduits à l'ère numérique, dans lesquels les ordinateurs ont proliféré. Ici aujourd'hui, la plupart des gens du monde sont branchés sur Internet presque 24/7.
Et nous croyons qu'en ce moment, cela se produit avec l'IA. Comme la formation des modèles et les coûts d'inférence sont considérablement diminués, de plus en plus de modèles d'IA émergeront, ouvrant le chemin de l'intelligence artificielle pour devenir une omniprésente mondiale.
Pour les applicateurs d'IA, nous sommes convaincus que c'est une excellente nouvelle.
Le dernier mot sur Deepseek
Revoyons l'exemple Coca-Cola et Pepsi.
Disons que les deux sociétés tirent parti de la percée profonde pour créer plus de modèles d'IA avec le même niveau de dépenses. Cela signifie que les deux sociétés deviendront beaucoup plus forte pour leur argent. Ils deviendront des applicateurs d'IA encore plus grands. Et ils verront probablement leurs revenus monter en flèche tandis que les coûts restent limités.
C'est pourquoi nous considérons cette évolution comme un énorme positif net pour les actions d'applications d'IA.
Sans oublier, une telle percée de l'efficacité des modèles d'IA suggère que nous sommes plus proches que quiconque n'aurait jamais pensé à créer une intelligence générale artificielle (Agi). Si en effet, nous pouvons fabriquer des modèles d'IA fondamentaux pour ~ 95% moins cher que prévu, nous pouvons théoriquement créer 20 fois plus de modèles pour chaque dollar dépensé également. Bien sûr, cela signifie que nous pouvons améliorer le débit du modèle d'IA par 20X, ce qui a potentiellement progressé le raisonnement d'IA 20x plus rapidement que prévu.
En d'autres termes, nous pouvons être beaucoup plus proches de l'AGI que nous ne l'avons réalisé.
C'est un énorme positif pour toutes les actions d'IA – et les stocks d'appareils en particulier.
Donc… Où allons-nous d'ici?
Nous pensons que la réponse à la stratégie d'investissement ici est assez simple.
À moyen à long terme… restez entièrement optimiste sur le commerce de l'IA. Mais inclinez plus que jamais vers les applicateurs sur les constructeurs. Bien que nous pensons que les actions de constructeur d'IA rebondiront et fonctionnent bien dans les mois et les années à venir, les actions des applicateurs d'IA devraient faire bien mieux.
Et à court terme… ne faites aucun mouvement pour l'instant. Attendez quelques jours. Laissez la poussière se déposer. Ensuite, pensez à acheter la baisse dans certains stocks de meilleurs applicateurs.
Pour nous aider à trouver certaines des meilleures actions d'IA à acheter sur cette baisse, nous nous tournons vers Elon Musk – l'homme le plus riche du monde – et sa grande entreprise, Xai.
Bien que cette startup ne soit pas encore une entreprise cotée en bourse, nous avons trouvé une façon prometteuse de «porte dérobée» d'investir aujourd'hui.
En savoir plus sur la façon de jouer la startup de Musk en ce moment.
PS Vous pouvez rester à jour avec la dernière analyse de marché de Luke en lisant nos notes quotidiennes! Découvrez le dernier numéro sur votre Investisseur de l'innovation ou Investisseur en début site d'abonné.