Transformers können Verschlüsselungen mit In-Context-Lernen knacken
Ein neues arXiv‑Veröffentlichung zeigt, dass Transformer‑Modelle mit In‑Context‑Learning (ICL) nicht nur einfache Funktionen, sondern auch klassische Verschlüsselungen wie monoalphabetische Substitutionen und Vigenère‑C…