Mixtral 8x7B, best open-source mixture of expert AI model tested, and how Mistral mocked the EU regulators. Full-transcript.
Heute schauen wir uns das größere der beiden Open-Source-Sprachmodelle des erfolgreichen europäischen KI-Startups Mistral an. Mixtral, man beachte das x in Mixtral, ist ein Mixture-Of-Experts (MoE) Modell