Call of Duty erhält im November mit Modern Warfare 3 eine globale Echtzeit-Sprachchat-Moderation.

Call of Duty erhält im November globale Echtzeit-Sprachchat-Moderation.

Activision hat neue Maßnahmen zur Bekämpfung von Toxizität in Call of Duty angekündigt und bestätigt, dass es “globale Echtzeit-Sprachchat-Moderation” einführen wird, zusammen mit dem Start von Modern Warfare 3 am 10. November. Ein US-Beta-Test des Features beginnt heute.

Das neue Sprachchat-Moderationssystem von Call of Duty wird eine KI-gesteuerte Technologie von Modulate einsetzen, um toxische Sprache in Echtzeit zu erkennen und dagegen vorzugehen. Zu den markierten Sprachen gehören Hassrede, Diskriminierung und Belästigung.

Eine erste Beta für das neue Sprachmoderationssystem von Call of Duty wird ab heute, dem 30. August, in Nordamerika in Warzone und Modern Warfare 2 eingeführt. Die weltweite Veröffentlichung erfolgt zeitgleich mit dem Erscheinen von Modern Warfare 3 im November. Activision merkt an, dass die Tools zunächst nur Englisch unterstützen werden und weitere Sprachen zu einem späteren Zeitpunkt hinzugefügt werden sollen.

Die Sprachchat-Moderation von Call of Duty wird im November mit Modern Warfare 3 weltweit eingeführt.

In einer begleitenden Q&A zur heutigen Ankündigung erklärt Activision, dass das KI-gesteuerte System nur für die Identifizierung und Meldung wahrgenommener Vergehen zur weiteren Überprüfung verantwortlich sein wird. Es wird jeder Meldung eine Verhaltenskategorie und ein Bewertungslevel für die Schwere zugewiesen. Der Publisher selbst wird dann basierend auf seiner Sicherheits- und Durchsetzungspolitik entscheiden, wie Verstöße geahndet werden.

Es wird hinzugefügt, dass “Trash-Talk” akzeptabel ist, solange er nicht in die Definition schädlicher Sprache fällt, wie sie im Verhaltenskodex festgelegt ist. Es wird darauf hingewiesen, dass die einzige Möglichkeit, das neue Moderationssystem zu umgehen, darin besteht, den Sprachchat im Spiel zu deaktivieren.

Activision sagt, dass die bestehenden Anti-Toxizitäts-Moderationsrichtlinien von Call of Duty bisher zu Sprach- und/oder Textchat-Beschränkungen in über 1 Million Accounts geführt haben, seit dem Start von Modern Warfare 2, und dass 20 Prozent der Spieler nach einer ersten Warnung keine weiteren Vergehen begangen haben.

Die heutige Ankündigung folgt der Einführung ähnlicher Moderationsmaßnahmen in der Branche. Microsoft zum Beispiel hat im Juli ein spielerorientiertes Sprachchat-Aufzeichnungs- und Meldetool für Xbox eingeführt, das derzeit mit Insidern getestet wird, während das Studio von League of Legends, Riot, schon seit einiger Zeit mit Sprachchat-Moderation experimentiert.