Interessantes Ergebnis einer Umfrage: Während in Unternehmen Skepsis gegenüber Plattformen wie TikTok, WhatsApp und sogar dem Metaverse in Punkto Sicherheit hegen, sieht dies bei ChatGPT anders aus. 75 Prozent der befragten Unternehmen haben keinerlei Sicherheitsbedenken, wenn ihre Mitarbeitenden den KI-Chatbot ChatGPT verwenden. Warum der Chatbot bei seinen Nutzern für ein falsches Sicherheitsgefühl sorgt und wie Unternehmen ihre Daten durch umfassende Visibility bis hinunter zur Netzwerkebene absichern und folglich Angriffe vermeiden können, erklärt Andreas Junck, Senior Sales Director DACH bei Gigamon.
Anzeige
Studie zu ChatGPT
Wie bei vielen neuen Technologien stellt sich auch bei Generative AI und Large Language Model (LLM) wie ChatGPT die Frage: Sind sich Unternehmen ihrer potenziellen Risiken bewusst und wie gehen sie damit um? Gigamon, aktiv im Bereich Deep Observability, wollte es genau wissen und hat im Rahmen einer aktuellen weltweiten Studie auch die CIO/CISOs aus 150 deutschen Unternehmen gefragt, wie sie die Sicherheit moderner Technologien einschätzen.
Die Online-Umfrage wurde von Gigamon in Auftrag gegeben und von Vitreous World durchgeführt. Insgesamt nahmen 1.020 CIO/CIOs sowie weitere C-Level-Führungskräfte aus Deutschland, dem Vereinigten Königreich, Frankreich, den USA; Singapur und Australien an der Erhebung teil. Befragungszeitraum: 19. April bis 02. Juni 2023. Das Ergebnis müsste nach meinen Recherchen im 2023 Hybrid Cloud Security Survey (20 Seiten PDF) zu finden sein.
Überraschendes Ergebnis
Das Ergebnis der Auswertung für Deutschland, die mir von Gigamon vorliegt: Drei Viertel der befragten Unternehmen (75 Prozent) haben keinerlei Sicherheitsbedenken, wenn ihre Mitarbeitenden ChatGPT nutzen. Lediglich fünf Prozent haben den KI-Chatbot aus ihrem Unternehmen verbannt und weitere 20 Prozent beschäftigen sich derzeit mit den Risiken.
Interessanterweise sind Unternehmen bei anderen Technologien weniger nachsichtig. Wenn es um das Metaverse und WhatsApp geht, sind sich CIO/CISOs jeweils zu 100 Prozent einig, dass (potenzielle) Sicherheitsrisiken vorliegen. So haben 67 Prozent von ihnen den Instant Messenger im Unternehmensumfeld verboten; das Metaverse stößt bei zwei Prozent auf Ablehnung. I
n beiden Fällen befasst sich der Rest zumindest mit möglichen Cyber-Risiken, um baldmöglichst eine Entscheidung hinsichtlich der Nutzung zu treffen. Das gleiche Schicksal ereilt auch TikTok: In zehn Prozent der Unternehmen ist die Kurzvideo-App tabu; 89 Prozent untersuchen das Risiko-Potenzial. Nur ein Prozent hat keine Bedenken und erlaubt TikTok im Unternehmen.
Anzeige
Zu WhatsApp und TikTok bleibt anzumerken, dass beide Plattformen nicht DSGVO-konform benutzt werden können, also in Europa in Firmen nicht zum Einsatz kommen dürfen. Gerade lese ich bei The Verge, dass New York den Einsatz von TikTok auf Geräten städtischer Bediensteter untersagt.
Risiken von ChatBot unbekannt
Die Ergebnisse der Umfrage lassen darauf schließen, dass die Sicherheitsrisiken der genannten Plattformen weithin bekannt sind und die Mehrheit der Unternehmen sie auch ernstnimmt. Anders verhält es sich bei ChatGPT – und das, obwohl auch der KI-Chatbot keine unwesentliche Gefahr für Unternehmen darstellt. Betriebsinterna oder andere sensiblen Informationen, die Mitarbeitende mit ChatGPT teilen, können im Trainingsdatenpool landen und im Zuge eines Angriffes auf OpenAI gestohlen werden.
Während des ChatGPT-Ausfalls im März 2023 sorgte sogar ein Bug dafür, dass Chat-Eingaben öffentlich einsehbar waren. Außerdem bestehen auch indirekte Risiken: Cyber-Kriminelle können das KI-Tool zum Beispiel dafür nutzen, um vertrauenswürdig wirkende Phishing-Mails zu verfassen, falsche Identitäten zu konstruieren oder Malware zu entwickeln.
"Die Tatsache, dass sie für ChatGPT nichts herunterladen müssen, sorgt bei Nutzern für ein falsches Gefühl von Sicherheit. In der Regel soll die Belegschaft Ausschau nach verdächtigen E-Mails halten und keine unbekannten Dateien herunterladen oder seltsame Links anklicken. Doch mit dem KI-Chatbot lassen sich mittlerweile authentische Anwendungen, Webseiten und E-Mails schreiben, die betrügerische Machenschaften verbergen. Dadurch steigt das Risiko, dass Mitarbeitende einem Angriff aufsitzen. Deshalb müssen sich Unternehmen auf den Ernstfall vorbereiten, wenn sie nicht auf ChatGPT verzichten möchten. Der Schlüssel für mehr Sicherheit – zum Beispiel im Rahmen eines Zero-Trust-Modells – ist umfassende Visibility bis hinunter zur Netzwerkebene. Dadurch werden potenzielle Blind Spots, in denen sich Cyber-Kriminelle einnisten, für Sicherheitsteams sichtbar und Angriffe lassen sich schneller erkennen und bekämpfen", rät Andreas Junck, Senior Sales Director DACH bei Gigamon.
Blind Spots als Problem?
Angesichts der aktuellen Bedrohungslage sind Blind Spots innerhalb des IT-Stacks für 52 Prozent der deutschen CIO/CISOs eine große Herausforderung. Trotzdem fehlt es vielen von ihnen weiterhin an Sichtbarkeit. Nur 29 Prozent von ihnen verfügen über eine umfassende Visibility-Grundlage über Netzwerke, Systeme und Anwendungen hinweg, um ihre Zero-Trust-Architektur zu unterstützen. Gerade einmal 21 Prozent haben Einsicht in verschlüsselte Daten.
Hier ist klar, dass für eine entsprechende Software-Lösung geworben werden soll. Aber ich formuliere es mal so: Solange die Leute im Management sich nicht im Klaren sind, wie riskant sie bezüglich der Informationssicherheit im Unternehmen unterwegs sind, werden Tools und tollen Software-Überwachungslösungen nicht helfen. Hier möchte ich exemplarisch auf meinen Artikel ChatGPT: Fabuliermaschine und Plappermaul für Firmengeheimnisse vom April 2023 verweisen. Samsung hat auf Grund interner Überprüfungen frühzeitig reagiert und die Verwendung von ChatGPT in der Firma verboten. Stattdessen werden selbst gehostete AI-/LLM-Lösungen eingeführt.
Ähnliche Artikel:
Was, wenn die generative KI sich als Blindgänger entpuppt?
Neues von Microsofts AI-Lösungen wie Copilot; Preise (3-30 US $/Monat) bekannt gegeben
Informationssplitter aus der KI-Welt: Fails von Algorithmen, Warnungen und Microsofts "way of AI"
Gegenwind für ChatGPT & Co, Moratorium bei der KI-Entwicklung gefordert, und Italien-Sperre für ChatGPT
Bericht: Microsoft plant Bing bis März 2023 mit ChatGPT-Suche zu erweitern
ChatGPT Perlen und Neuigkeiten zum Sonntag
Microsoft plant nach einem Bericht Office mit ChatGPT-4-Funktionen zu erweitern
Microsoft 365 Copilot vorgestellt: KI-Funktionen für alle Office-Apps
AGB-Änderung: Zoom will Nutzerdaten für KI-Training verwenden
ChatGPT & Co: Chance oder eher (DSGVO-)Risiko?
Anzeige
Naja, wenn man ChatGPT in Firmenumgebungen zulässt, dann doch bitte wenigstens die Business Variante. Die schließt zumindest in der Theorie die Nutzung der Inhalte zu Trainingszwecken aus. Ob das am Ende dann wirklich so ist, ist die große Frage.
Ein Werbe Artikel mit AI als Aufhänger? Von einer Firma die Werbung für Monitoring im Netzwerk macht?
Das Thema vertrauen geht vollkommen am Problem vorbei. Excel produziert nicht automatisch richtige Kalkulation, Outlook nicht automatisch sinnvolle Mails.
Wenn eine Firma etwas zusichert, darf man darauf vertrauen. Ansonsten ist es eine Vertragsverletzung.
Dass unklar ist, wie US Firmen mit der DSGVO integriert werden ist aktuell ein Problem. Das haben aber die meisten "Sicherheitslösungen" aber auch.
Zu deinem ersten Satz: Es ist klar benannt, was die Firma macht und dass die die Umfrage bezahlt haben. Verlinkt ist nichts und Werbung (sponsored Post) ist es auch nicht, sonst wäre es gekennzeichnet.
Ansonsten geht der Kommentar imho am Thema vorbei. Man könnte die Umfrage sowie die Auswertung kritisieren. Aber die Kernaussage ist, dass 75 % der deutschen Unternehmen in einem ziemlich blauäugigen Blindflug in Sachen ChatGPT unterwegs sind.
Bzgl. Zusicherung: Haben wir oft genug durchgekaut – eine verantwortungsbewusste Unternehmensleitung samt Management zieht selbst vorsorglich Brandmauern ein. Gab hier im Blog ja Meldungen, dass Firmen das nach internen Untersuchungen gemacht haben. Und zu einer verantwortungsvollen Vorgehensweise gehört auch, dass ich mir aus juristischer Sicht zwar diese "Zusicherung" einhole, aber alles daran setze, dass ich nie auf diese Zusicherung angewiesen bin, und nur mit großem Handlungsdruck überhaupt Daten aus der Hand gebe und von Dritten verarbeiten lasse.
Ich brauche mir doch nur mit wachem Verstand die letzten Wirtschafts- und Cyber-Security-Meldungen anzusehen, um zu erkennen, was da inzwischen los ist. Von daher kann ich über den Kommentar nur den Kopf schütteln – typisch deutsches Management "Hauptsache ich habe ein Papier, dass belegt, ich bin nicht schuld und konnte nicht wissen, dass was schief laufen kann".
Die Einstellung bringt nur eben gar nichts. Zu Tode gefürchtet ist auch fast gestorben.
Nichts tun löst keine IT Probleme, bestehendes hat aber IT Probleme. (wie jedes Software Upgrade egal von welchem Hersteller gut zeigt)
Die Themen Authentifizierung, Datenschutz, Überwachung, Wartung, einfach als IT Sicherheit zuverwurschteln, und Cybersicherheit zu nennen, ist ein Teil des Problems.
ChatGPT ist ein Tool wie der VI. Ob intelligenter liegt an der Aufgabe.
Daher meine Kritik am Artikel. Irgendeine Umfrage zu einem Thema wird als "Vertrauen" eingestuft. Ich vertraue darauf dass OpenAI korrekt abrechnet. Und schon bin ich Teil der 75%. Sagt halt nix aus.
In unserer Behörde haben Führungskräfte bereits stolz berichtet, dass sie sich lange und/oder komplexe Vermerke durch ChatGPT erklären oder zusammenfassen lassen. Dass die jeweiligen Inhalte als intern oder gar vetraulich klassifiziert waren, hat sie offenbar nicht gestört. Hier besteht auf jeden Fall Aufklärungs und ggf. Regelungsbedarf.
Faszinierend. Ich hätte echt nicht gedacht, dass es so schlimm steht.
Bei uns gibt es die klare Anweisung, niemals firmeninterne, vertrauliche oder geheime Informationen, einschliesslich Kunden- oder Personendaten, bei ChatGPT einzugeben.
Und ich hoffe, Eure Führungskräfte überprüfen jeweils, ob das, was in der Erklärung oder Zusammenfassung drinsteht, denn noch dem Inhalt des Originaltextes entspricht…
Es ist sogar schon länger so schlimm.
Wir haben bereits vor Jahren von einer deutschen Behörde E-Mails bekommen, die auf den ersten Blick von der Behörde, und bei näherer Betrachtung aber aus Oregon kamen. Das hatte hier für extreme Verwirrung und Verunsicherung gesorgt, da eine erste — erwartete! — Mail inhaltlich so gar nicht den Regeln entsprach. Die Kontrolle der Header steigerte das Misstrauen dann nochmals.
Dann wurde telefoniert, und siehe da, alles korrekt, bis auf den Inhalt der ersten Mail. Die kam dann in korrigierter Form nochmal, incl. Signatur und Vertraulichkeits-Disclaimer und Anhängen.
Das mit dem vertraulich legen viele anscheinend aus mit "Hauptsache das direkte und nähere Umfeld kriegt nichts mit von Dingen, über die es nichts wissen soll oder darf".
Eine grundsätzliche Anweisung bzgl. des Umgangs mit klassifizierten Informationen besteht natürlich, aber offenbar war den Personen nicht bewusst, dass das selbstverständlich auch für die Nutzung von ChatGPT gilt, auch wenn man es nicht ausdrücklich erwähnt und so erfreut man sich an der nützlichen black box, von der man gar nicht wissen will, wie sie funktioniert.
Dann sollte man sich wohl auf Meldungen gefasst machen, das ca. 75% der Unternehmen irgendwann sensible Daten aufgrund der Nutzung mit entsprechenden Fragen dort finden werden, wo sie es nie vermutet hätten.
Gerade gab es eine Pressekonferenz den BKA, wo hervorgehoben wurde, dass die Zahl der Cyberangriffe auf deutsche Unternehmen inzwischen arg gestiegen sei. Speziell Industriespionage und Abfluss interner Informationen wurde im Zusammenhang mit Schäden in Milliarden Euro genannt.
Aber schön, das wir darüber gesprochen haben – hier in Deutschland klappt schließlich nix mehr. Aber der Fisch stinkt vom Kopf her, pflegten unsere Vorfahren das Problem zu benennen.
Das ist so ohne Worte.
Es ist also nur eine Frage der Zeit, bis mal wieder völlig überraschend für deutsche Firmen im Ausland Patente angemeldet werden, die man in Deutschland doch auch gerade zur Marktreife gebracht hat und beim Patentamt anmelden wollte.
Von IT-Angriffen auf Firmen gar nicht erst zu reden.
Ich kenne kein Unternehmen das danach gefragt wurde. Die Zahlen sind doch aus der Luft gegriffen.
Na ja, ob sie "aus der Luft gegriffen" sind?? Ist wohl etwas hart und absolut ausgedrückt. Allerdings: Ich hatte ehrlicherweise auch erst an einen Schreibfehler gedacht … Aber sollten sie wirklich SO stimmen, dann wäre das ein weiterer Beweis, dass dieses Land IT-mäßig wohl mehr oder weniger verloren ist. Zu einer anderen Erkenntnis kann ich da irgendwie nicht kommen. Und wir reden hier von Unternehmen! Selbst wenn die Umfrage bei "Max Mustermann oder Manuela Musterfrau" durchgeführt worden wäre, fände ich diese Zahl mehr als wie bedenklich.
Man bleibt mal wieder ratlos zurück … :-)
75 % der deutschen Unternehmen befinden sich in #Neuland.
bedeutet: 75% der deutschen Firmen sind somit nicht vertrauesnwürdig!
""dass 75 % der deutschen Unternehmen"" – Es scheint allgemein üblicher zu werden Umfrageergebnisse mit nur sehr eingeschränkt verwertbarer Repräsentanz als aussagekräftig hinzustellen.
Die befragten Menge reicht hier nicht hin um eine derart starke Aussage wie oben zu treffen.
Wenn gleich verteilt über die benannten Länder Antworten ausgewertet wurden, dann wären dies, 1.020/6, etwa 170 für Deutschland.
Lt. Statista gibt es etwa 3.000.000 Unternehmen in Deutschland. Wenn man da aus 170 Einzelantworten Repräsentanz bekommen will, dann muss man schon zu den ganz, ganz großen Magiern gehören.
Eine Umfrage so zu bauen, dass ausschließlich Unternehmensführungen befragt werden, die wiederum AI in der Firma nutzen können verfälscht die Aussagekraft noch weiter bis zu unkenntlichkeit.
Da muss man nicht lange darauf warten, bis es wirklich hier bergab geht.
Eine sogenannte "KI-Herrlichkeit" wird als Lösung für alle Probleme von Unternehmen favorisiert. Dazu gehört auch dieser Schwachsinn.
Hinzu kommt, dass das von den Bundesministerien in diesem Land schon gemacht wird. Es ist nicht nur ein ekeliger Überwachungsprozeß im Gange und es werden mehr und mehr Entscheidungen IT-gestützt gefällt und eben ohne Zutun eines Menschen. Das wir dann mit "DSGVO" begründet: "Wir können ja nicht anders. Es gibt da kein Zurück mehr".
Dss Gehirn wird bei der Arbeit abgegeben und die Leute suchen dann zum Feierabend ihr weggeworfenens Gehirn um physisch Obst und Gemüse zu kaufen, bei denen dann auf der Verpackung oder auf der Banderole steht "vegan".
Toll in diesem Land.
"Das Gehirn wird bei der Arbeit abgegeben"
Ist es nicht schon länger so, das die Leute ihr Gehirn "abgeben", sobald sie ein nicht naturwissenschaftliches oder technisches Studium beginnen ?! Hauptsache der Prof. ist zufrieden, wenn man brav nach plappert … und das so sehr verinnerlicht, das man auch nach dem Studienabschluß weiter diese gequirlte Sch…ße im Kopf behält und danach handelt.
Ein Münchener Hochschulleiter hatte das vor geraumer Zeit im Heute Journal, also öffentlich, wie folgt erklärt (sinngemäß): Der Zweck der Hochschule sei es, die Studenten so zu "Konditionieren", dass sie mit Abschluss des Studiums den Wünschen und Anforderungen der Wirtschaftsbetriebe entsprechend "funktionieren"… von selbstständig denkenden Akademikern war da keine Rede ! Zumal Konditionieren etwas ganz anderes ist, als Ausbilden oder Ertüchtigen !
Tja und so muss man nur zuhören, was all diese hoch Studierten, die inzw. längst in der Politik oder in Wirtschafts-Instituten usw. angekommen sind, in Talksendungen, Interviews, Dokumentationen usw. von sich geben … und genau in diese Richtung entwickelt sich doch "längst" das Land, die Welt und die Wirtschaft (speziell Großkonzerne). Wohin man auch schaut, in den Entscheidungs-Positionen sitzen überall diese Gehirn"amputierten" Dummschwätzer, die zugleich natürlich auch noch "Respekt" für ihr intellektuelles Versagen erwarten.
Inzwischen ist das alles ja so offensichtlich (siehe aktuelle Hampelmänner und Hampelfrauen -Regierung), dass es jeder, aber auch wirklich jeder erkennen kann, der nicht selbst in dieser "Blase" des Schwachsinns gefangen ist. So ein in sich reformunfähiges System, kann am Ende nur kollabieren. Was auch immer dem Nachfolgt ist die Frage und die Antwort darauf ist zunächst wohl eher weniger erfreulich, rette sich wer kann…
Eventuell passend zum Thema:
Die Sendung "nano" vom 1.1.2024 berichtete über einen deutschen Radio-Sender, welche (fast) ohne Menschen, vollautomatisiert arbeitet. Musik Auswählt, die Sendung Moderiert, Nachrichten zusammen stellt …
"Es klingt wie normales Radio. Doch was der Mannheimer Kommerzfunk-Anbieter BigFM neuerdings sendet, kommt ohne menschliches Zutun zustande. Big Layla ist die KI-Radiomoderatorin von BigGPT."
https://rodlzdf-a.akamaihd.net/none/3sat/24/01/240115_radio_gpt_nano/1/240115_radio_gpt_nano_2360k_p35v17.mp4