Moltbook: Viral AI‑Prompts als neue Sicherheitsbedrohung Das neu entdeckte Phänomen Moltbook verdeutlicht, dass selbstreplizierende Prompt‑Strings ein ernstes Sicherheitsrisiko darstellen. Anstatt auf selbstkorrigierende KI‑Modelle angewiesen zu sein, können sich einfache Textanweisungen wie Viren verbreiten und unkontrolliert in verschiedene Systeme eindringen. Ars Technica – AI 03.02.2026 12:00
Elon Musk’s Grok: Problem mit Entblößungs‑Filter bleibt ungelöst Die Plattform X hat die Vorgaben für Grok, den KI‑Chatbot von Elon Musk, verschärft, um die Erzeugung expliziter Bilder einzuschränken. Trotz dieser Maßnahmen zeigen aktuelle Tests, dass die neuen Regeln ein Flickwerk aus Einschränkungen bilden, das das Problem nicht vollständig löst. Wired – AI (Latest) 15.01.2026 19:30
Kryptografen beweisen: KI-Schutzmaßnahmen bleiben immer lückenhaft Große Sprachmodelle wie ChatGPT sind mit Filtern ausgestattet, die verhindern, dass bestimmte Informationen weitergegeben werden. Quanta Magazine – Machine Learning 10.12.2025 15:31
Panel-Dashboard mit Live‑KPIs, dynamischem Filtern und interaktiven Visuals In diesem Tutorial wird Schritt für Schritt gezeigt, wie man ein fortschrittliches, mehrseitiges Dashboard mit Panel erstellt. Dabei werden zunächst synthetische Daten generiert, die als Grundlage für sämtliche Visualisierungen dienen. MarkTechPost 30.11.2025 21:53
Forscher entdecken Schwachstelle in KI‑Sicherheitsmaßnahmen mit einfachen Strings Ein Team von Wissenschaftlern hat eine kritische Lücke in den Schutzmechanismen von großen Sprachmodellen aufgedeckt. Durch die Verwendung bestimmter Zeichenketten, wie zum Beispiel „=coffee“, lassen sich die eingebauten Guardrails umgehen und damit die Modelle manipulieren. The Register – Headlines 14.11.2025 21:19
Vermeide KI bei Thanksgiving: Bots tragen versteckte Vorurteile Die neuesten Erkenntnisse zeigen, dass große Sprachmodelle (LLMs) von Natur aus voreingenommen sind. Diese Vorurteile entstehen, weil die Modelle auf riesigen Mengen menschlicher Texte trainiert werden, die selbst unbewusste Biases enthalten. Das Ergebnis ist, dass die KI nicht einfach neutral antwortet, sondern die Muster ihrer Trainingsdaten widerspiegelt. The Register – Headlines 24.10.2025 00:42
Anthropic plant Schutzfilter, um KI vor Nuklearwaffen zu hindern Anthropic hat mit der US-Regierung zusammengearbeitet, um einen Filter zu entwickeln, der die KI Claude daran hindern soll, bei der Konstruktion einer Nuklearwaffe zu helfen. Die Maßnahme soll verhindern, dass die Technologie für schädliche Zwecke missbraucht wird. Wired – AI (Latest) 20.10.2025 10:00
Wie DAX Filter in Measures nutzt – Ein tiefer Einblick Haben Sie sich jemals gefragt, wie DAX Filter in Measures verarbeitet? In diesem Beitrag tauchen wir tief ein und zeigen, wie Zeitintelligenz‑Funktionen genutzt werden, um die Filterlogik von DAX zu verdeutlichen und gezielt zu steuern. Towards Data Science 01.10.2025 13:30
OpenAI stärkt ChatGPT-Schutz nach Todsfall-Klage – Eltern erhalten mehr Kontrolle OpenAI hat seine Sicherheitsrichtlinien für ChatGPT erweitert, nachdem ein Elternteil eine Klage wegen eines Todesfalls eingereicht hatte, bei dem ein Kind angeblich durch die Nutzung des Chatbots beeinflusst wurde. Die Firma reagiert mit neuen Schutzmaßnahmen, die insbesondere Eltern mehr Kontrolle über die Nutzung durch ihre Kinder geben. ZDNet – Artificial Intelligence 28.08.2025 21:05