MoE (Mixture of Experts)

Definitie

Een efficiënte architectuur die slechts een deel van het netwerk gebruikt per vraag.

MoE (Mixture of Experts): Een efficiënte architectuur die slechts een deel van het netwerk gebruikt per vraag.

Gerelateerde termen

← Terug naar AI Woordenboek