Forschung arXiv – cs.AI

Konzeptbasierte Erklärungen verbessern die Erkennung toxischer Sprache

Die rasante Verbreitung von Social‑Media hat nicht nur die Kommunikation erleichtert, sondern auch die Verbreitung schädlicher Inhalte beschleunigt. Trotz bedeutender Fortschritte bei der Erkennung toxischer Sprache ble…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Die rasante Verbreitung von Social‑Media hat nicht nur die Kommunikation erleichtert, sondern auch die Verbreitung schädlicher Inhalte beschleunigt.
  • Trotz bedeutender Fortschritte bei der Erkennung toxischer Sprache bleibt die Nutzung von Konzept‑basierten Erklärungen bislang begrenzt.
  • In der vorliegenden Studie werden typische Unterkategorien wie „obszön“, „Bedrohung“, „Beleidigung“, „Identitätsangriff“ und „sexuell explizit“ als Konzepte verwendet, d…

Die rasante Verbreitung von Social‑Media hat nicht nur die Kommunikation erleichtert, sondern auch die Verbreitung schädlicher Inhalte beschleunigt. Trotz bedeutender Fortschritte bei der Erkennung toxischer Sprache bleibt die Nutzung von Konzept‑basierten Erklärungen bislang begrenzt.

In der vorliegenden Studie werden typische Unterkategorien wie „obszön“, „Bedrohung“, „Beleidigung“, „Identitätsangriff“ und „sexuell explizit“ als Konzepte verwendet, die stark darauf hinweisen, ob ein Text toxisch ist. Allerdings führt eine unverhältnismäßige Gewichtung dieser Konzepte häufig zu Fehlklassifikationen.

Um diesem Problem zu begegnen, wird die Concept‑Gradient‑Methode (CG) vorgestellt. Sie liefert eine kausale Interpretation, indem sie misst, wie Änderungen an den Konzepten die Modellvorhersage direkt beeinflussen. Ergänzend wird ein Targeted Lexicon Set entwickelt, das toxische Wörter identifiziert, die zu Fehlklassifikationen beitragen.

Zur Bewertung der Bedeutung dieser Lexikone werden Word‑Concept Alignment (WCA) Scores berechnet, die quantifizieren, inwieweit die Wörter Fehler durch Übergewichtung der Konzepte verursachen. Abschließend wird eine lexikonenfreie Augmentierungsstrategie eingeführt, die toxische Stichproben generiert, ohne vordefinierte toxische Lexikone zu verwenden. Diese Methode ermöglicht es, die Auswirkungen von Übergewichtung systematisch zu untersuchen und die Robustheit von Textklassifikatoren zu erhöhen.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Social Media
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
toxische Sprache
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Concept-Gradient-Methode
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen