Van Gemini, Claude tot Lama: hoe AI-titanen de industrie in 2024 hebben gevormd


Kunstmatige intelligentie werd in 2023 als nieuwigheid gezien met de lancering van ChatGPT, slechts een maand voor de start van dat jaar. Microsoft-CEO Satya Nadella gooide, nadat hij 10 miljard dollar in OpenAI had geïnvesteerd, de handschoen naar Google en daagde de DeepMind-eigenaar uit om te laten zien wat zijn AI kon doen. Google wankelde met zijn halfbakken Bard-bot die onnauwkeurige antwoorden uitspuwde. In de daaropvolgende maanden onderging het bedrijf van Alphabet een vuurdoop en kwam uiteindelijk eind 2023 uit met een omgedoopte AI, Gemini.

Voortbouwend op dat momentum bouwde de zoekgigant gestaag zijn reputatie opnieuw op en begon in 2024 Gemini-mogelijkheden in bijna al zijn producten en diensten te integreren. De recente AI-ontwikkelingen van Google, waaronder de tweede generatie Gemini, de Trillium AI-acceleratorchip, en doorbraken in quantum computing met de Willow-chiphebben het beleggersvertrouwen aanzienlijk vergroot, waardoor de aandelenkoers naar een recordhoogte is gestegen.

OpenAI heeft Google’s Gemini niet gemakkelijk gemaakt. De concurrentie tussen de twee giganten uit Silicon Valley was hevig. Beide bedrijven lanceerden geavanceerde AI-modellen met verbeterde redeneermogelijkheden.

Het o3-model van OpenAI bouwt voort op zijn voorganger, o1, door zich te concentreren op verbeterde redeneervaardigheden en presteert beter dan eerdere modellen op het gebied van complexe codering en geavanceerde wiskunde. Op dezelfde manier beantwoordde het Gemini 2.0 Flash Thinking-model van Google complexe vragen door het denkproces te schetsen, waardoor de redeneermogelijkheden van het model werden vergroot.

Het o3-model van OpenAI, met zijn geavanceerde redeneermogelijkheden, kreeg meer aandacht van Microsoft omdat de technologiegigant vertrouwt op OpenAI-modellen voor zijn AI-assistent, Microsoft 365 Copilot. Hoewel o3 betere prestaties belooft, zijn de hogere kosten en rekentijd belangrijke overwegingen voor zakelijke toepassingen.

Claude en Mistral AI van Anthropic

Het was niet alleen de ommekeer van Google dit jaar. Productlanceringen en updates van een aantal andere AI-bedrijven hebben dit jaar in sommige gevallen de donder van OpenAI gestolen. Het door Amazon gesteunde Anthropic heeft zijn AI-model, Claude 3.5 Sonnet, geüpgraded met een “computergebruik”-mogelijkheid. Dankzij deze functie kan de AI autonoom taken uitvoeren zoals het verplaatsen van de cursor, typen en surfen op internet, waardoor complexe computerinteracties effectief worden geautomatiseerd. Deze ontwikkeling heeft tot doel de productiviteit te verbeteren, vooral voor softwareontwikkelaars, door de AI in staat te stellen acties in meerdere stappen uit te voeren met minimale menselijke tussenkomst.

Een ander gebied waarop Anthropic dit jaar vooruitgang heeft geboekt, was de manier waarop het veiligheidsmaatregelen implementeerde. Tijdens de Amerikaanse presidentsverkiezingen analyseerde het met de Clio-tool het AI-gebruik om een ​​verantwoorde AI-inzet te garanderen. In een ander geval liet het AI-bedrijf het Britse AI Safety Institute toe om zijn Claude 3.5 Sonnet-model vroegtijdig te testen.

Het Franse AI-bedrijf Mistral zorgde op zijn beurt voor een zekere mate van transparantie op het gebied van AI met zijn open modellen, waaronder Mistral 7B en Mixtral 8x7B, ontworpen voor maatwerk en inzet in verschillende toepassingen. Deze modellen waren beschikbaar onder open licenties, wat de toegankelijkheid en innovatie binnen de AI-gemeenschap bevorderde.

Mistral Large 2, het vlaggenschipmodel van de startup, werd geïntegreerd in IBM’s Watsonx-platform en bood verbeterde mogelijkheden op het gebied van codegeneratie, wiskunde en redeneren.

In november breidde de in Frankrijk gevestigde startup zich uit naar de VS door een kantoor te vestigen in Palo Alto, Californië, een strategische zet gericht op het aantrekken van top AI-talent en het verbeteren van de verkoopactiviteiten van het bedrijf. Dergelijke stappen laten zien hoe Silicon Valley het epicentrum blijft voor toptechtalent.

Mistral AI werkte ook samen met Qualcomm om nieuwe generatieve AI-modellen te brengen naar apparaten die worden aangedreven door Snapdragon- en Qualcomm-platforms, wat aangeeft dat de nadruk ligt op het verbeteren van de AI-toegankelijkheid en -prestaties in consumentenelektronica.

Meta’s lama

Meta’s grote taalmodellen (LLM’s) lopen, hoewel vrij laat in de AI-race, niet ver achter. In sommige opzichten Het moederbedrijf van Facebook kan worden gecrediteerd voor het modulariseren van AI-modellen met zijn Llama-modellen.

In april bracht Meta Llama 3 uit, met modellen met 8 miljard (8B) en 70 miljard (70B) parameters. Deze modellen zijn vooraf getraind op ongeveer 15 biljoen tokens uit openbaar beschikbare bronnen, met verfijning op meer dan 10 miljoen door mensen geannoteerde voorbeelden. Met prestaties op het gebied van coderen, redeneren en meertalige ondersteuning werd Llama 3 door Meta gepositioneerd als een open-source AI-model.

In juli breidde Llama 3.1 de contextvensters uit voor de parametermodellen 8B en 70B. Bovendien lanceerde het ook een parametermodel van 405 miljard (405 miljard). In september introduceerde Meta Llama 3.2, met modellen met 1B-, 3B-, 11B- en 90B-parameters. Deze versie markeerde een belangrijke mijlpaal door multimodale mogelijkheden te integreren, waardoor de modellen zowel tekst als afbeeldingen konden verwerken. Bovendien is Llama 3.2 geoptimaliseerd voor implementatie op edge- en mobiele apparaten, waardoor de toepasbaarheid ervan wordt vergroot.

Lama-modellen werden geleidelijk geïntegreerd in Facebook, Instagram en WhatsApp, waardoor de gebruikerservaring werd verbeterd met AI-gestuurde functies zoals realtime vertaling en het genereren van inhoud. Tegen het einde van 2024 werd Llama breder geaccepteerd met meer dan 650 miljoen downloads, volgens een bedrijfsblog, onder verwijzing naar downloads van Hugging Face.

Meta’s Llama en Mistral AI bieden een open-source alternatief voor de OpenAI-stijl closed source AI-modellen. Open-sourcemodellen stellen een breder publiek in staat om zich bezig te houden met AI-technologie, waardoor gezamenlijke ontwikkeling en snelle innovatie worden vergemakkelijkt. Deze openheid staat in contrast met het gesloten karakter van propriëtaire modellen, die de toegang tot onderliggende code en gegevens beperken.

Ontwikkelaars kunnen open-source LLM’s aanpassen aan specifieke behoeften, waardoor de veelzijdigheid tussen diverse applicaties wordt vergroot. Dit aanpassingsvermogen is vaak beperkt in closed-sourcemodellen vanwege bedrijfseigen beperkingen. Hoewel open-sourcemodellen voordelen bieden, kunnen ze te maken krijgen met uitdagingen bij het matchen van de prestaties en gespecialiseerde mogelijkheden van propriëtaire systemen. Eigen modellen hebben vaak toegang tot uitgebreide bronnen en gegevens, waardoor ze bij bepaalde taken betere prestaties kunnen leveren. En succes in AI is afhankelijk van het soort gegevens waarin de modellen zijn getraind.

Apple-intelligentie en ervaring op het apparaat

In 2024 werden AI-modellen steeds vaker op verschillende apparaten ingezet om hun mogelijkheden dichter bij de eindgebruikers te brengen, de functionaliteit te verbeteren en realtime ervaringen te bieden. In smartphones en tablets werden bijvoorbeeld de Neural Engine van Apple, de Snapdragon AI Engine van Qualcomm en de Tensor-chipsets van Google geïntegreerd met LLM’s en vision-modellen om verschillende taken aan te sturen, waaronder stemassistenten zoals Siri en Google Assistant, realtime beeldverwerking voor fotoverbeteringen en augmented reality, en multimodale AI voor spraak-, tekst- en beeldgebaseerde zoekopdrachten.

Apple’s integratie van AI-functies in zijn nieuwste iPhones, zoals Visual Intelligence en Image Playgroundheeft de belangstelling van de consument nieuw leven ingeblazen en bijgedragen aan een aanzienlijke stijging van de iPhone-verkoop. Deze integratie heeft Apple op de rand gebracht om het eerste bedrijf te worden dat een marktkapitalisatie van $4 biljoen overtreft.

PC-fabrikanten omarmen AI volledig door AI-versnellers te integreren, zoals NVIDIA GeForce RTX-serie GPU’s, AMD Radeon-chips en Apple’s M-serie-chips. Deze versnellers maken generatieve modellen en geavanceerde functies mogelijk, zoals AI-aangedreven transcriptie- en videobewerkingstools, verbeterde productiviteitstools, gamingverbeteringen waaronder realtime ray tracing en AI-aangedreven niet-speelbare personages (NPC’s) die op het apparaat kunnen worden uitgevoerd.

Talent is de sleutel

De kern van de huidige AI-revolutie ligt in een tweemotorig systeem. Eén engine is verantwoordelijk voor het trainen van de gegevens, terwijl de andere de getrainde gegevens gebruikt om conclusies te trekken. Om deze motoren effectief te laten werken, zijn hardwarebronnen alleen onvoldoende. Menselijke expertise speelt een cruciale rol.

Dit is vooral voor OpenAI een pijnpunt geworden, omdat het dit jaar toptalent heeft laten bloeden. Een opmerkelijke afwijking van de AI-gigant is mede-oprichter Ilya Sutskever. Het bedrijf verloor ook zijn hoofd technologie Mira Murati en verschillende andere vooraanstaande computerwetenschappers.

Tot overmaat van ramp sluiten sommige vertrekkende leden zich aan bij rivalen. John Schulman, een andere medeoprichter van OpenAI, stapte bijvoorbeeld over naar Anthropic. Schulman is een belangrijke leider bij de creatie van ChatGPT.

Volgens een BCG-analyse van topgeschoolde arbeidskrachten zijn AI-experts het meest mobiel, met bijna 11 van de 100 experts die elke vijf jaar internationaal verhuizen. Waar ze naartoe gaan, kan dus een groot verschil maken.

Bedrijven en landen die het beste talent aantrekken, kunnen een concurrentievoordeel behalen in de technologiewereld. Landen die openstaan ​​voor mondiaal talent hebben de neiging meer uit te vinden en sneller te groeien. Terwijl landen strijden om leiderschap op het gebied van AI, is hun vermogen om toptalent aan te trekken cruciaal voor hun succes.



Source link