🔭 Word Lid voor €120 per jaar

Beursbaas Brainstorm (EP 8): de deflatoire effecten van AI op de moats van bedrijven

Beursbaas Brainstorm (EP 8): de deflatoire effecten van AI op de moats van bedrijven

Kunstmatige intelligentie (AI) wordt in toenemende mate steeds geavanceerder. De modellen die AI-bedrijven nu op de markt brengen, bevatten significante verbeteringen ten opzichte van de modellen die zij nog maar recent publiceerden.

Hyperscalers als Microsoft, Alphabet, Meta en Amazon spenderen vele miljarden dollars aan CAPEX om de leercurve van hun AI-technologie zo stijl als mogelijk te houden. Recentelijk werden zij vergezeld door het Chinese DeepSeek, dat met zijn R1 model claimt in staat te zijn net zo goede of zelfs iets betere prestaties neer te zetten ten opzichte van OpenAI’s o1, met hierbij tevens maar een fractie van de kosten.

Los van de limitaties die DeepSeek noemt in zijn paper (DeepSeek, 2025), realiseerden beleggers gisteren dat het wellicht allemaal ook een stuk efficiënter kan. Kijkend naar de koersreacties van gisteren verwachten zij dat hyperscalers in de toekomst wellicht met lagere CAPEX eenzelfde prestaties kunnen neerzetten.

Hyperscaler-leverancier NVIDIA daalde dan ook met -17% gisteren: het grootste beurswaardeverlies ooit in onze moderne geschiedenis. Enkel NVIDIA verloor gisteren $600 miljard aan beurswaarde, hetgeen evenveel is als 2,2x heel ASML. En dat op één dag.

Dat eenzelfde prestaties met minder kosten kunnen worden behaald, is niet meer dan logisch in een wereld die continu innoveert. Op het behalen van additionele efficiëntieslagen wordt continu gestuurd, ook al is dit in het beginstadium van het ontwikkelen van nieuwe technologieën geen top 1 prioriteit. Zowel op het gebied van hardware als op software kunnen efficiëntieslagen worden gemaakt inzake AI. Een combinatie van beide zal bijdragen aan de beste kansen voor de kandidaat-winnaars van deze AI-wedloop, aangezien ik verwacht dat schaalgrootte en efficiëntie belangrijke pijlers worden voor het uiteindelijke verdienmodel van LLM’s.

Recentelijk gaf OpenAI aan dat het verlies maakt op de gebruikers die het Pro abonnement van OpenAI hebben en $200 per maand neerleggen voor het gebruik van deze LLM. Dit laat mijns inziens twee dingen zien:

  • Ten eerste kenmerkt het het surplus dat gebruikers ervaren: zij beoordelen de waarde die zij verkrijgen uit hun abonnement als groter dan wat hen dit kost.
  • Ten tweede laat het zien dat OpenAI dus nog ruimte heeft om zijn tarieven te verhogen. Maar...

...OpenAI is geen monopolist, en ziet in toenemende mate zijn concurrentie ook steeds beter worden. Hiermee worden LLM’s steeds meer een commodity. Dit omdat de prestaties van AI-modellen tussen concurrenten onderling ongeveer van dezelfde kwaliteit zijn en het verschil in het gebruik onderling niet heel groot is. Hiermee kunnen AI-modellen vooralsnog niet concurreren op het gebied van technologische voorsprong (IP). Ook vormen switching costs geen belemmering: op je PC kun je naast OpenAI ook Perplexity of andere LLM’s(-engines) open hebben staan waarop je je vragen kunt stellen.

Wat ik op dit moment zelf ervaar, is dat de kwaliteit tussen LLM concurrenten ongeveer gelijk is. Met de ene prompt krijg ik bij LLM ABC een beter antwoord, waar met een andere prompt juist LLM XYC weer het beste antwoord geeft.

Waar moeten de hyperscalers het dan van hebben voor hun toekomstig verdienmodel inzake AI?

Laten we vooropstellen dat de kwaliteit van de AI-technologie op nummer 1 staat (KPI: %nauwkeurigheid), alsmede de snelheid waarmee dit geschiedt (process time).

Wanneer we ervan uitgaan dat de kwaliteit en de snelheid van LLM’s tussen concurrenten onderling ongeveer gelijk blijven, zal er geen pricing power enkel op basis van IP kunnen worden bewerkstelligd.

Hierbij komt de manier hoe we deze LLM’s gebruiken om de hoek kijken. Ik verwacht dat er een bepaalde moat kan worden gecreëerd wanneer AI-modellen worden geïntegreerd in bepaalde bestaande — en blijvende — systemen van bedrijven zoals office- en bedrijfssoftware (kanshebbers: OpenAI, Microsoft). Voor consumenten zal dit liggen op het gebied van de devices die zij in toenemende mate gebruiken: hun smartphones (kanshebbers: Apple en Alphabet).

Valt er ook nog wat te verdienen aan het faciliteren van niche AI-producten?

Wat je momenteel veel ziet ontstaan, zijn nieuwe websites en apps die op basis van open source modellen hun eigen niche diensten aanbieden (wellicht ben je ze wel tegengekomen in de afgelopen periode, waarmee er met flitsende advertenties naar deze diensten wordt gepromoot). In de pioniersfase waarin we ons nu begeven, is dit zeker iets om op de korte termijn geld mee te kunnen verdienen. Ik schat echter de kans van slagen op de lange termijn als laag in, aangezien de grotere aanbieders van LLM’s steeds diverser worden. Als VC zou ik dan ook geen gelden alloceren aan deze kleine niche startups, simpelweg omdat ik op de lange termijn geen moat en daarmee geen verdienmodel voorzie, ook al zie je op dit moment blijvend veel geld toetrekken naar dergelijke AI-projecten in het VC landschap, met in hun pitch decks dat zij volgens hen wel degelijk onderscheidend bezig zijn. Uiteindelijk zullen AI-modellen en diens coding skills zo krachtig worden dat zij dergelijke projecten in een afzienbaar korte tijd zelf kunnen construeren als niche applicatie voor de eindgebruiker.

Dat de diversificatie van de grote LLM’s steeds verder toeneemt, zie je nu ook terug komen in hun toekomstplannen, waarbij zij agents willen ontwerpen voor allerhande zaken, zodat deze voor de eindgebruiker direct binnen handbereik liggen en eenvoudig te gebruiken zijn met simpele prompts. Bij AI-agents moet je denken aan bijvoorbeeld research assistents in het bedrijfsleven, of aan planning agents voor consumenten.

Mijns inziens is hiermee het toekomstige verdienmodel van AI-technologie zoals wij deze nu kennen in de vorm van LLM’s, en straks ook in dat van agents, toegespitst op:

1) de kwaliteit (output) en efficiëntie (snelheid) van AI-technologie. Hiervoor is schaalgrootte van belang om optimale voordelen te behalen uit data feedback loops.

2) indien de kwaliteit en efficiëntie tussen concurrenten gelijk blijft, zal het kostenelement om de hoek kijken. Zonder integratie c.q. voordelen uit ecosystemen zal hierbij de kostprijs voor de consument iets boven dat van de kostprijs van de aanbieder liggen.

3) AI-technologie die goed is geïntegreerd is in toekomstige en bestaande systemen kunnen voordelen halen o.b.v. switching costs, ook al zal dit met de snelheid waarmee AI-technologie en technologie als geheel zich ontwikkeld wellicht (veel) lager uitvallen dan wat switching costs in het verleden aan pricing power opleverden.

4) de (hardware) aanbieders als Apple en Alphabet hebben de schaalgrootte om AI-technologie snel en eenvoudig aan de consument aan te bieden met een integratie in hun ecosystemen. Ook software aanbieders als Microsoft kunnen goede zaken doen, wanneer zij hun AI-technologie (m.b.v. OpenAI) kunnen integreren in bestaande toepassingen.

Ondanks het uitzicht op efficentiëslagen staan we nog altijd aan het begin van al hetgeen wat ogenschijnlijk mogelijk wordt geacht met AI-technologie, en technologieën die daaruit voortvloeien. Ik verwacht dan ook niet dat AI-investeringen minder gaan worden in de nabije toekomst. Ik acht de kans zelfs reëel dat deze nog iets groter zullen worden, nu ook China laat zien dat het potentieel een van de blijvende koplopers is in het AI-klassement. De Jevons paradox sorteert hierbij nog eens voor op een toename van het gebruik van AI-technologie naarmate het deze efficiënter wordt.

Wat is het effect van AI op andere, niet-AI zijnde, bedrijven?

Het is goed om tevens te brainstormen over de effecten die AI zal hebben op zijn (eind)gebruikers.

I think that people will ask an agent to do something for them that would have taken them a month, and it'll finish in an hour, and it'll be great, and then they'll have like 10 of those at the same time, and then they'll have like 1,000 of those at the same time. — Sam Altman (2024)

Stel dat het mogelijk is om AI agents straks in te gaan zetten voor het doen van werk dat normaal gesproken experts alleen zouden kunnen doen. Dan zal dit veel waarde creëren voor de eindgebruiker wanneer deze agents inderdaad binnen een afzienbare tijd het werk kunnen opleveren met dezelfde kwaliteit als wat experts afleveren.

Hiermee zouden de kosten van arbeidsintensieve en kennisintensieve bedrijven omlaag kunnen gaan, hetgeen ogenschijnlijk hun winstgevendheid zal verhogen. Hierbij treedt echter een tweede orde effect op waarbij ook hun concullega’s kunnen profiteren van dergelijke kostenreducties, waarbij we het nog niet eens hebben gehad over de technologisch gedreven substitutie die op de hoek kan kijken en zorgt voor additionele concurrentie.

Uiteindelijk zullen alle bedrijven die geen moat hebben, niet profiteren van de opbrengsten die toekomstige AI-technologieën teweeg gaan brengen. Zeker een voordeel voor de eindgebruiker van producten en diensten — veelal wij als consument — maar niet voor de eigenaren en aandeelhouders van deze non-moat bedrijven.

Ik beleg daarom ook niet in de technologie- en SaaS-bedrijven die het mogelijk nog wel eens zwaar zouden kunnen krijgen naarmate AI steeds geavanceerder wordt, en het spel, waarbij initieel hoge kosten worden gemaakt t.b.v. het creëren van schaalbare software, om dit vervolgens gespreid en in massa te verkopen, niet meer zo winstgevend kan worden gespeeld.

In conclusie zullen mijns inziens moats van een nog groter belang worden naarmate wij ons richting de toekomst voortbewegen, waarbij AI een mooie deflatoire kracht is voor de consument, maar rendementen op basis van blijvend hoge ROIC's gezocht moeten worden bij de bedrijven die zich écht onderscheiden.

Eelze Pieters

28 januari 2025