Kleine Variationen, Fehler: Zuverlässigkeit bei Compute‑in‑Memory‑Acceleratoren
Compute‑in‑Memory‑Architekturen versprechen enorme Energie‑ und Durchsatzgewinne für neuronale Netzwerke, indem sie den klassischen von‑Neumann‑Flaschenhals umgehen. Doch die Abhängigkeit von neuartigen, nicht‑flüchtige…