
Microsofts KI-Scanner entlarvt versteckte Hintertüren in Sprachmodellen
Microsoft stellt eine neue Methode vor, um manipulierte KI-Modelle vor ihrer Auslieferung zu erkennen. Das Tool bekämpft die wachsende Bedrohung durch sogenannte „Model Poisoning“-Attacken in der KI-Lieferkette.Die Gefahr ist schwer fassbar: Künstliche Intelligenzen können während ihres Trainings mit versteckten Schadfunktionen…









