Generative KI: Zuverlässigkeit bei Steuern und Lebensentscheidungen fragwürdig
Die jüngsten Diskussionen um generative KI zeigen deutlich, dass die Technologie zwar beeindruckende Sprachfähigkeiten besitzt, aber bei sensiblen Aufgaben wie Steuererklärungen oder medizinischen Entscheidungen nicht zuverlässig ist. Der Kern des Problems liegt in der grundsätzlichen Bauweise der Chatbots: Sie lernen aus riesigen Textkorpora und generieren Antworten, die statistisch plausibel erscheinen, ohne die Faktenlage zu prüfen.
Ein solcher Ansatz führt zu sogenannten „Halluzinationen“ – plausibel klingende, aber faktisch falsche Aussagen. Für Steuerpflichtige bedeutet das, dass fehlerhafte Angaben zu Geldstrafen oder Rückzahlungen führen können. In der Medizin könnten falsche Ratschläge lebenswichtige Entscheidungen gefährden. Da die Modelle keine echte Rechtsverantwortung tragen, bleibt die Haftung unklar.
Darüber hinaus fehlt den Chatbots ein echtes Verständnis von Kontext und Konsequenz. Sie können keine langfristigen Folgen ihrer Empfehlungen abwägen und sind nicht in der Lage, zwischen vertraulichen und öffentlichen Daten zu unterscheiden. Diese Schwächen machen sie zu unsicheren Partnern, wenn es um Entscheidungen geht, die das Leben oder die Finanzen von Menschen betreffen.
Experten fordern daher klare Regulierungen und Transparenz bei der Nutzung generativer KI. Nur so kann das Vertrauen in die Technologie gestärkt und gleichzeitig das Risiko von Fehlentscheidungen minimiert werden.