Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation Forscher entwickeln Sprachmodelle, die ohne speicherintensive Matrixmultiplikationen auskommen und dennoch mit modernen Transformern konkurrieren können sollen. Geschrieben am 27. Juni 2024 Veröffentlicht in .heise_news