PromptSplit: Prompt-basierte Unterschiede in generativen Modellen aufdecken
In der rasanten Entwicklung von KI‑Modellen, die aus Texten Bilder, Texte oder Bildunterschriften generieren, wird die Vielfalt der Modelle immer größer. Unterschiedliche Trainingsdaten und Architekturen führen dazu, dass dieselben Eingabe‑Prompts bei verschiedenen Modellen unterschiedliche Ergebnisse liefern. Um diese divergierenden Verhaltensweisen systematisch zu erkennen, stellt das neue Verfahren PromptSplit vor.
PromptSplit nutzt einen kernelbasierten Ansatz, um für jedes Modellpaar eine gemeinsame Repräsentation aus Prompt‑ und Ausgabedaten zu erzeugen. Durch die Bildung von Tensor‑Produkt‑Embeddings und die Berechnung der zugehörigen Kovarianzmatrizen wird die eigenspektrale Struktur der Modellunterschiede analysiert. Die Hauptunterschiedsrichtungen werden dabei anhand des gewichteten Unterschieds der Matrizen bestimmt.
Um die Skalierbarkeit zu gewährleisten, wird eine Random‑Projection‑Approximation eingesetzt, die die Rechenkomplexität auf O(nr² + r³) reduziert, wobei r die Projektiondimension ist. Theoretisch wird gezeigt, dass die Abweichung der Eigenstruktur vom Vollmaßstab bei O(1/r²) liegt. Praktische Tests in den Bereichen Text‑zu‑Bild, Text‑zu‑Text und Bild‑zu‑Text‑Unterschrift bestätigen, dass PromptSplit die tatsächlichen Verhaltensunterschiede zuverlässig erkennt und die verantwortlichen Prompts identifiziert.
Damit bietet PromptSplit ein interpretierbares Werkzeug, um zu verstehen, wo und warum generative Modelle bei denselben Eingaben divergieren. Dies ist ein wichtiger Schritt, um die Transparenz und das Vertrauen in KI‑Anwendungen zu erhöhen.