
Verwandte Videos:
Ein Fehler im Einsatz von künstlicher Intelligenz (KI) innerhalb des US-amerikanischen Einwanderungs- und Zollbehörde (ICE) führte dazu, dass zahlreiche neue Rekruten ohne die angemessene Ausbildung in die Außenstellen geschickt wurden, wie NBC News unter Berufung auf zwei mit dem Fall vertraute Beamte des Ordnungssystems berichtete.
Das Problem trat auf, während ICE einen ehrgeizigen Plan zur Einstellung von 10.000 neuen Agenten vorantrieb, wobei ein KI-Tool verwendet wurde, um Bewerbungen zu klassifizieren und zu bestimmen, welche Bewerber über vorherige Erfahrungen bei den Strafverfolgungsbehörden verfügten.
Ein Fehler bei der Klassifikation der Rekruten
Das automatisierte Werkzeug wurde entwickelt, um Kandidaten mit Polizeierfahrung zu identifizieren und sie dem sogenannten LEO-Programm (Law Enforcement Officer) zuzuweisen, einem verkürzten Kurs, der vier Wochen Online-Training erfordert.
Die KI machte jedoch einen entscheidenden Fehler: Sie klassifizierte Personen fälschlicherweise als Ordnungskräfte, die es nicht waren, einfach weil in ihren Lebensläufen das Wort „officer“ auftauchte.
Laut einem der von NBC News zitierten Beamten wurden im Kurzprogramm Bewerber aufgenommen, die sich als „Compliance Officer“ bezeichneten oder sogar Personen, die lediglich den Wunsch äußerten, ICE-Agenten zu werden, ohne jemals Teil lokaler oder föderaler Polizeikräfte gewesen zu sein.
„Sie verwendeten KI, um die Lebensläufe zu scannen, und entdeckten, dass viele der als LEO identifizierten Personen es nicht waren“, erklärte einer der Beamten.
Unzureichendes Training für sensible Aufgaben
Die Bewerber ohne polizeiliche Erfahrung sollten eine achtwöchige Präsenzschulung an der ICE-Akademie im Federal Law Enforcement Training Center (FLETC) in Georgia absolviert haben. Dieses Programm umfasst Schulung in Einwanderungsrecht, Umgang mit Schusswaffen, betriebliche Verfahren und Fitnessprüfungen.
Aufgrund des Fehlers erhielt eine beträchtliche Anzahl von Rekruten nur die verkürzte Ausbildung, obwohl sie dafür nicht die Voraussetzungen erfüllten, und wurde in Feldbüros eingesetzt.
Obwohl die Beamten klarstellten, dass die lokalen Büros des ICE normalerweise zusätzliche Schulungen anbieten, bevor die Agenten eingesetzt werden, gaben sie zu, dass der Fehler ein ernsthaftes Risiko in einem operativen Kontext darstellte, der sehr empfindlich ist.
Verspätete Korrekturen und mangelnde offizielle Antwort
Der Fehler wurde Mitte des Herbstes festgestellt, als bereits mehr als ein Monat seit Beginn des beschleunigten Einstellungsprozesses vergangen war. Nachdem der Mangel identifiziert wurde, begann ICE, die Lebensläufe manuell zu überprüfen und Korrekturmaßnahmen zu ergreifen.
„Jetzt müssen sie zurück zum FLETC gebracht werden“, sagte einer der Beamten in Bezug auf die Notwendigkeit, die vollständige Präsenzschulung abzuschließen.
Das Ministerium für Innere Sicherheit (DHS), von dem ICE abhängt, hat auf die Anfragen von NBC News um einen Kommentar nicht reagiert.
Bedenken über den Einsatz von KI in der Sicherheit
Der Fall bringt erneut die Bedenken hinsichtlich des Einsatzes von Künstlicher Intelligenz in kritischen Prozessen zur Sprache, insbesondere in Behörden, die für polizeiliche und migrationsbezogene Aufgaben zuständig sind. Eine übermäßige Abhängigkeit von automatisierten Systemen ohne angemessene menschliche Aufsicht kann zu Fehlern mit operativen und sicherheitstechnischen Konsequenzen führen.
Während ICE weiterhin seinen Einstellungsprozess anpasst, legt der Vorfall die Risiken offen, die entstehen, wenn Schnelligkeit über Sorgfalt priorisiert wird, in einer Behörde, die Festnahmen, Abschiebungen und den Einsatz von Gewalt als Teil ihrer täglichen Aufgaben behandelt.
Archiviert unter: