Zondag 28 april 2024

Databricks komt met DBRX: open-source LLM dat GPT-3.5 en Llama 2 verslaat


  • 27-03-2024
  • Bron tekst / afbeelding: Techzine

Het nieuwe general purpose large language model moet organisaties helpen generatieve AI-apps te realiseren die zeer goed presteren. Databricks wil dit bereiken door DBRX te laten vertrouwen op een mixture-of-experts (MoE)-architectuur, gebaseerd op het open-source project MegaBlocks. MoE adresseert met name de beperkingen van GPT-achtige architecturen (dense modellen) door computationele lagen op te splitsen in […]

Lees het hele artikel op Techzine »