Viime viikolla tekoälymaailmaa ravisteli merkittävä julkaisu, kun kiinalainen tutkimusryhmä esitteli uuden suurten kielimallien (LLM) innovaation, DeepSeek R1:n. Tämä malli ei ainoastaan kilpaile tunnetuimpien GPT-mallien, kuten OpenAI:n GPT-4:n kanssa, vaan haastaa niitä uusilla lähestymistavoilla, jotka voivat muuttaa tekoälyn kehityksen suuntaa. Uutisissa on ihmetelty sitä, miten DeepSeek R1 on voitu kehittää selvästi pienemmillä rtesursseilla kuin amerikkalaiset tekoälymallit. Mutta miten DeepSeek R1 eroaa esimerkiksi OpenAI:n GPT-malleista?