Ein Forscher des chinesischen Eigentümers von TikTok, ByteDance, wurde letzte Woche fälschlicherweise zu einem Gruppenchat für amerikanische Sicherheitsexperten für künstliche Intelligenz hinzugefügt, so das U.S. National Institute of Standards and Technology (NIST) am Montag.

Der Forscher wurde zu einer Slack-Instanz für Diskussionen zwischen Mitgliedern des U.S. Artificial Intelligence Safety Institute des NIST hinzugefügt, so eine mit der Angelegenheit vertraute Person.

In einer E-Mail teilte das NIST mit, dass es die Forscherin in dem Wissen hinzugefügt habe, dass sie eine Freiwillige sei.

"Als das NIST erfuhr, dass die Person ein Angestellter von ByteDance war, wurde sie umgehend entfernt, da sie gegen den Verhaltenskodex des Konsortiums bezüglich falscher Angaben verstoßen hatte", heißt es in der E-Mail.

Die Forscherin, deren LinkedIn-Profil besagt, dass sie in Kalifornien ansässig ist, antwortete nicht auf Nachrichten; ByteDance reagierte nicht auf E-Mails, in denen um einen Kommentar gebeten wurde.

Die Person, die mit der Angelegenheit vertraut ist, sagte, dass das Auftauchen einer ByteDance-Forscherin im Konsortium für Aufsehen gesorgt hat, weil das Unternehmen kein Mitglied ist und TikTok im Zentrum einer nationalen Debatte darüber steht, ob die beliebte App der chinesischen Regierung eine Hintertür geöffnet hat, um Amerikaner auszuspionieren oder in großem Umfang zu manipulieren. Letzte Woche hat das US-Repräsentantenhaus einen Gesetzesentwurf verabschiedet, der ByteDance zwingen soll, sich von TikTok zu trennen oder ein landesweites Verbot zu verhängen; das Ultimatum steht vor einem ungewissen Weg durch den Senat.

Das AI Safety Institute soll die Risiken modernster Programme für künstliche Intelligenz bewerten. Das im letzten Jahr angekündigte Institut wurde im Rahmen des NIST eingerichtet. Zu seinen Gründungsmitgliedern gehören Hunderte von großen amerikanischen Technologieunternehmen, Universitäten, KI-Startups, Nichtregierungsorganisationen und andere, darunter auch die Muttergesellschaft von Reuters, Thomson Reuters.

Das Konsortium arbeitet unter anderem an der Entwicklung von Richtlinien für den sicheren Einsatz von KI-Programmen und hilft KI-Forschern, Sicherheitslücken in ihren Modellen zu finden und zu beheben. Laut NIST umfasst die Slack-Instanz des Konsortiums etwa 850 Nutzer. (Bericht von Raphael Satter; Bearbeitung durch Sharon Singleton)