Atlassian nutzt Benutzerdaten von Jira, Confluence etc. für AI-Training; Opt-out erforderlich

Stop - PixabayKurze Information für Blog-Leser und -Leserinnen, deren Unternehmen Produkte wie Jira oder Confluence von Atlassian verwenden. Die "Schweinepriester" sind hingegangen und haben ihre AGB geändert. Ab dem 17. August 2026 will Atlassian Kundenmetadaten und In-App-Inhalte standardmäßig aus Jira, Confluence und anderen Cloud-Produkten erfassen, um damit seine KI-Modelle zu trainieren. Wer als Nutzer das nicht möchte, muss das per Opt-out mitteilen.

Ich bin am gestrigen 20. April 2026 auf diverse Tweet gestoßen, die diesen Sachverhalt aufgegriffen haben. Nachfolgender Tweet greift die Information auf, verweist aber auf einen Tweet aus 2023.

Atlassian AI-Training

Bereits im August 2023 wies kepano darauf hin, dass Kunden Daten unverschlüsselt in einer Datenbank, die von Atlassian gelesen werden kann, ablegen. Es gibt dort bereits den Hinweis "und damit hat Atlassian die Möglichkeit, die Daten zum AI-Training zu verwenden, die brauchen nur die Terms of Service zu ändern …". Und genau das ist nun passiert.

Laut diesem Artikel ändert Atlassian seine Richtlinien zur Datenbereitstellung, sodass das Unternehmen ab dem 17. August 2026 Kundenmetadaten und In-App-Inhalte aus Jira, Confluence und anderen Atlassian-Cloud-Produkten zum Trainieren seiner KI-Funktionen, darunter „Rovo" und „Rovo Dev", verwenden kann.

  • Metadaten umfassen anonymisierte Signale wie Lesbarkeits- und Komplexitätswerte, Aufgabenklassifizierungen, Metriken zur semantischen Ähnlichkeit, Story Points, Sprint-Enddaten und SLA-Werte aus Jira Service Management.
  • In-App-Daten umfassen benutzergenerierte Inhalte: Seitentitel und -inhalte in Confluence, Titel von Jira-Issues, Beschreibungen, Kommentare, benutzerdefinierte Emoji-Namen, benutzerdefinierte Statusnamen und Workflow-Namen.

Atlassian gibt an, dass es direkte Identifikatoren entfernen, Daten aggregieren und Schutzmaßnahmen anwenden werde, bevor diese für das Training verwendet werden.

Nutzer müssen explizit ein Opt-out wählen, um die Verwendung der Daten zum Training abzulehnen – wobei laut obigem Tweet einige Daten nicht per Out-out vom Training ausgenommen werden können. In-App-Daten werden innerhalb von 30 Tagen nach Opt-out oder Löschung entfernt, und alle auf diesen Daten trainierten Modelle werden innerhalb von 90 Tagen neu trainiert, um den Beitrag zu löschen.

Die Änderung betrifft etwa 300.000 Kunden und sieht gestaffelte Standardeinstellungen vor: Kunden mit niedrigeren Tarifen können die Erfassung von Metadaten nicht ablehnen, während Enterprise-Kunden weiterhin die Möglichkeit haben, sich dagegen zu entscheiden. Atlassian speichert die bereitgestellten Daten bis zu sieben Jahre lang.

Dieser Beitrag wurde unter AI, Cloud, Sicherheit abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen für den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros. Kommentare abseits des Themas bitte unter Diskussion. Kommentare, die gegen die Regeln verstoßen, werden rigoros gelöscht.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.