Künstlichen Intelligenz (KI) entwickelt sich mit einer irrwitzigen Geschwindigkeit und bietet enormes Potenzial, birgt gleichzeitig aber auch große Unsicherheiten. Am 10. Juni 2024 sprachen Peggy Tsai (Chief Data Officer bei BigID), Anat Bar-Gera (Investorin in BigID; Member of the World Economic Forum’s European Digital Leaders network), Adrian Ott (Chief AI Officer bei EY), Alexander Riklin (CEO der ALCAR Holding GmbH) und Maria Pisa (Partnerin und Cybersecurity Expertin bei EY Switzerland) auf der Top Speakers Lounge in Zürich über aktuelle und zukünftige Trends in der KI.
KI wird derzeit in den meisten Unternehmen in verschiedensten Formen wie maschinellem Lernen und natürlicher Sprachverarbeitung eingesetzt. Von personalisierten Empfehlungen im E-Commerce bis hin zur Betrugserkennung in Finanzdienstleistungsunternehmen wird KI genutzt, um die Effizienz von Geschäftsprozessen zu steigern. Besonders generative KI, eine spezielle Unterkategorie der KI, hat durch die Fähigkeit, neue Inhalte auf Basis menschlicher Sprache zu erzeugen, große Aufmerksamkeit erlangt.
Mit der zunehmenden Verbreitung von KI in Unternehmen wächst auch der Bedarf an Daten zur Schulung großer Sprachmodelle. Chief Security Officers stehen dabei vor Herausforderungen wie Datenverletzungen, Datenlecks und Compliance-Verstößen. Die Steuerung des Datenzugriffs und die Kontrolle darüber, welche Daten geteilt werden und wer Zugang hat, sind neue Herausforderungen für KI-Systeme.
Schlüsselfaktor Datenqualität
Daten sind ein grundlegendes Element für KI, neue Regulierungen und Cloud-Sicherheit. Die Operationalisierung der KI-Governance wird stark von zwei Schlüsselfaktoren abhängen:
- Automatische Datenerkennung: Die Fähigkeit, Daten über das gesamte Datenumfeld hinweg automatisch zu entdecken, einschließlich strukturierter, unstrukturierter und sich in Bewegung befindlicher Daten. Die automatische Inventarisierung unstrukturierter Daten verschafft Unternehmen einen Wettbewerbsvorteil bei der Erstellung maßgeschneiderter Modelle.
- Datenklassifikation: Durch das Labeln und Taggen aller Daten können Unternehmen feststellen, um welche Art von Daten es sich handelt, wie zugänglich sie sind und welche bekannten Risiken bestehen. Durch die Erstellung neuer Metadaten können Unternehmen Geschäftsregeln für das automatisierte Management und die Kontrolle ihrer Daten entwickeln.
Diese beiden Faktoren sind entscheidend, damit Unternehmen proaktiv auf neue Vorschriften reagieren können, so Peggy Tsai.
Erfolgsfaktor Firmenkultur
Anat Bar-Gera investiert professionell in Tech-Unternehmen und muss dafür auch das Erfolgspotenzial von KI-Start-Ups evaluieren. Für sie sind dafür in erster Linie nicht die Person an der Spitze oder der prognostizierte ROI ausschlaggebend, sondern die Unternehmenskultur. Es braucht eine "Try-try-try-Mentalität" – die Bereitschaft, Fehler zu machen und daraus zu lernen statt sie zu bestrafen, zu Scheitern und es weiter zu versuchen.
KI als Accelerator für Cybercrime
Adrian Ott, CAIO von EY, brachte die Rolle von KI in Cybercrime zur Sprache. Heutzutage sind Ransomware-Attacken, Deep Fakes und Social Engineering weder Fremdwörter noch eine Seltenheit. Es ist nicht mehr die Frage ob, sondern wann man gehackt wird und KI erhöht auch die Effizienz von Cyberkriminellen enorm, so Ott.
Alcar-CEO Alexander Riklin kann aus eigener Erfahrung berichten, wie überraschend und hart ein Ransomware-Angriff ein Unternehmen treffen kann. In seinem Fall hielt sich der Schaden dank sehr guter Back-up-Lösungen in Grenzen und das Lösegeld wurde nicht bezahlt. Seither hat Alcar weiter in Cybersecurity investiert, um für zukünftige Angriffe noch besser gewappnet zu sein.
Während vor 10 Jahren noch ein Großteil der Ransomware-Opfer das Lösegeld bezahlte, sieht Cybersecurity-Expertin Maria Pisa darin nun einen Abwärts-Trend. Sie vermutet dahinter zwei Gründe: Einerseits haben Cybercrime-Versicherungen immer mehr Schlupflöcher, die es den Versicherungen erlauben, dem betroffenen Kunden die Lösegeld-Rückerstattung zu verweigern. Andererseits haben die Hacker ihr Verhalten geändert. Beim ersten Hack fordern sie einen relativ kleinen Betrag, der dem Unternehmen nicht allzu weh tut. Diese Unternehmen landen dann aber im Darknet in einer Database, auf die auch andere Hackergruppen Zugriff haben und werden immer wieder gehackt.
Haben wir einen neuen Oppenheimer-Moment?
Der weltweite Wettlauf um die schnellste, beste, intelligenteste KI hat begonnen und es ist fraglich, inwieweit staatliche Regulierung das verhindern kann. Umso wichtiger wird es sein, ethische und Sicherheitsaspekte bei der Entwicklung von KI nicht aus den Augen zu verlieren.
Mit freundlicher Unterstützung von
Galerie
Fotos: HKSÖL/Jasmin Frei
Kommentare