Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation

Forscher entwickeln Sprachmodelle, die ohne speicherintensive Matrixmultiplikationen auskommen und dennoch mit modernen Transformern konkurrieren können sollen.