DeepSeek brengt DeepSeek-V3 uit, een open-source MoE-model met in totaal 671 miljard parameters, waarvan 37 miljard geactiveerd per token, en beweert dat het beter presteert dan topmodellen als GPT-4o (Shubham Sharma/VentureBeat)




Shubham Sharma / VentureBeat:

DeepSeek brengt DeepSeek-V3 uit, een open-source MoE-model met in totaal 671 miljard parameters, waarvan 37 miljard geactiveerd per token, en beweert dat het beter presteert dan topmodellen als GPT-4o– De Chinese AI-startup DeepSeek, bekend vanwege het uitdagen van toonaangevende AI-leveranciers met zijn innovatieve open-sourcetechnologieën, heeft vandaag een nieuw ultragroot model uitgebracht: DeepSeek-V3.





Source link