Wat maakt DeepSeek zo bijzonder?Het nieuwe model, voluit DeepSeek-R1, verscheen vorige week in de appwinkels. Het kreeg de wind in de zeilen toen het maandag wereldwijd ChatGPT overvleugelde op de ranglijst van populairste apps in de App Store. DeepSeek, van het gelijknamige Chinese bedrijf, is net als ChatGPT een chatbot en kan even vaardig als de Amerikaanse concurrent taal- en wiskundevragen beantwoorden.Vooral opmerkelijk was de claim van DeepSeek dat het ‘slechts’ 5,6 miljoen euro zou hebben gebruikt om het model te ‘trainen’. Het trainen van chatbots is een zeer kostbare stap in het creëren, waarbij ze worden gevoed met gigantische bakken data. Meta, Google en ChatGPT-maker OpenAI geven honderden miljoenen euro’s uit aan de training.Hoe geloofwaardig zijn de claims van DeepSeek?Over het trainen van DeepSeek is weinig bekend. Het is onduidelijk of het bedrijf daadwerkelijk een relatief klein aantal chips gebruikte om DeepSeek-R1 te trainen.De reacties van de markten zijn geen loos alarm, aldus Jelle Zuidema, hoofddocent natuurlijke taalverwerking aan de Universiteit van Amsterdam. Uit de openbare data van DeepSeek die hij heeft ingezien, maakt hij op dat het model zowel klein als capabel is. Het AI-brein van DeepSeek bestaat uit 70 miljard ‘parameters’ – variabelen die het systeem gebruikt om een vraag van een gebruiker te beantwoorden. De Amerikaanse concurrentie heeft voor vergelijkbare resultaten 1,8 biljoen parameters nodig, 25 keer zoveel.De claim dat DeepSeek efficiënter is in het gebruik, is dus zeer geloofwaardig, aldus Zuidema. Dat wereldwijd chatbots enorm populair zijn, is een steeds belangrijker aspect van de grote vraag naar chips en computerkracht. Deze vraag ondermijnt DeepSeek, meent Zuidema.Hoe heeft DeepSeek deze sprong vooruit kunnen maken?DeepSeek begon met het maken van een AI-model dat volledig was gericht op het oplossen van wiskundesommen. Dat is vernieuwend, vertelt Zuidema, omdat de meeste chatbots worden gemaakt met taal als startpunt. Vervolgens gebruikte DeepSeek dit rekenmodel om onder meer een eigen taalmodel te maken en Llama, de gedeeltelijk openbare en relatief kleine chatbot van Meta, te optimaliseren. Dat blijkt veel goedkoper.Opvallend is ook dat de beurswaarde van Meta na het verschijnen van DeepSeek juist steeg, met 1,5 procent. Aan het begin van de AI-hausse besloot Meta dat het niet kon opboksen tegen OpenAI en Microsoft, en zette daarom in op de ‘open route’, door de code van Llama te delen. ‘Ze hopen daarmee een eigen ecosysteem te creëren, dat zij met Llama controleren’, vertelt Zuidema. Het succes van DeepSeek is dus ook een overwinning voor Meta.Mooi toch, een relatief goedkope chatbot. Waarom is de AI-wereld daarvan zo van slag?DeepSeek veroorzaakte een enorme waardedaling van een handvol bedrijven op de beurzen. Die is te danken aan het feit dat DeepSeek een heersend idee de grond in lijkt te hebben geboord: dat eindeloze hoeveelheid chips nodig zijn voor AI.Het voorn