Die unterschiedlichen Aspekte von KI und Cybersicherheit betreffen Prävention, Analyse, Vorhersagbarkeit und Gegenmaßnahmen gegen das Bedrohungspotenzial durch KI. Ob Chatbot-Prompt, ob automatisierte Analyse von Logdateien: KI wird in der Verhinderung und Aufklärung von Cybercrime immer wichtiger. 3RCSK informiert, stellt Produkte für KMU und KMO vor. Top-Speaker bieten Gelegenheiten zum Austausch, zur Information: über die Region hinaus. Top-Behörden und -Organisationen bereichern die Veranstaltung: allen voran das Bundesamt für Sicherheit in der Informationstechnik (BSI), die Initiative IT-Sicherheit in der Wirtschaft des BMWK mit der Transferstelle Cybersicherheit, das Fraunhofer IIS, Erlangen, das FZI Forschungszentrum Informatik, Karlsruhe, sowie Unternehmen, Hochschulen und Universitäten: ein Meetup mit Mehrwert!
Künstliche Intelligenz ist spätestens seit dem Durchmarsch von ChatGPT in aller Munde. Mittlerweile hören wir häufiger von Bedrohungen durch KI. Selbst wenn es mittels Alignment immer schwieriger wird, Schadcode programmieren zu lassen, gibt es die „böse“ KI, etwa WormGPT oder FraudGPT. Diese Services lassen sich genauso mieten wie die „normalen“ Modelle von OpenAI oder anderen Anbietern. Aber nicht immer liegen die Probleme in der Software, die von Verbrechern geschrieben wird. KI bietet ein großes Ansatzfeld für Cybersecurityspezialisten. „Dieser Breite wollen wir mit Blick auf kleine und mittlere Organisationen Rechnung tragen“, beschreibt Dr. Matthias Kampmann, Geschäftsführer des IT-Sicherheitsclusters. „Wir sind zudem Core-Mitglied der Regensburger AIR-Initiative und von Anfang an dabei, sodass wir eins und eins zusammen gezogen haben und das AIR Annual Meetup in diesem Jahr zusammen mit dem großen Kongress veranstalten.“
„In diesem Jahr wagen wir auch deswegen erstmalig einen anderen Weg und freuen uns, im Jahnstadion willkommen zu sein“, beschreibt Kampmann die Planungen. „Wir dürfen angesichts der Bedrohungslage, die natürlich nicht nur KI-bestimmt ist, niemals müde in unseren Anstrengungen werden, alle Unternehmen, die noch nicht in Cybersicherheit investieren, zu ermutigen.“ Daher richtet sich die Veranstaltung nicht nur an Unternehmen der Branche, sondern soll mit einem möglichst breiten Angebot an Themen ein Licht auf das Lagebild werfen. Was also sind die Chancen und Risiken von KI? Welche Cybersicherheitsübungen, Schulungen und weitere Schutzmaßnahmen müssen wir ergreifen, damit unsere Wertschöpfungsketten gesichert werden? Welche „Vorurteile“ entwickelt KI und was kann dagegen unternommen werden? Welche Leitsätze für den KI-Einsatz kann sich ein Unternehmen geben? Und vor welchen Herausforderungen steht ein Unternehmen, das große Sprachmodelle wie GPT-4 der Firma OpenAI einsetzt? Und was bringt das neue Recht, der AI Act, der nun inkraft tritt? Diesen und weiteren Fragen werden wir uns am 22. April stellen.
3. Regensburger Cybersecurity-Kongress meets 3. AIR Annual Meetup
„Wir müssen einen Cybermarkt schaffen. In einem florierenden Cyberökosystem aus dem Dreieck Politik, Wissenschaft und Wirtschaft können sichere digitale Produkte erforscht und entwickelt werden, die dann auch tatsächlich genutzt werden, um die Cybersicherheit zu steigern.“
Claudia Plattner, Präsidentin des Bundesamts für Sicherheit in der Informationstechnik, BSI
Was? Der 3. Regenburger Cybersecurity-Kongresses (3RCSK) startet durch: Der IT-Sicherheitscluster e. V. widmet sich am 22. April 2024, 9 bis 17 Uhr, im Jahnstadion Regensburg den unterschiedlichen Aspekten von KI und Cybersicherheit sowohl aufseiten der Prävention, Analyse, Vorhersagbarkeit und Gegenmaßnahmen als auch hinsichtlich des Bedrohungspotenzials. Ob Chatbot-Prompt als Werkzeug zur Schadsoftwareproduktion, ob automatisierte Analyse von Logdateien: KI wird in der Verhinderung und Aufklärung von Cybercrime immer wichtiger. Der Kongress informiert, stellt Produkte für KMU und KMO vor. Top-Speaker bieten Gelegenheiten zum Austausch, zur Information: über die Region hinaus. Top-Behörden und -Organisationen bereichern die Veranstaltung: allen voran das Bundesamt für Sicherheit in der Informationstechnik (BSI), die Initiative IT-Sicherheit in der Wirtschaft des BMWK mit der Transferstelle Cybersicherheit, das Fraunhofer IIS, Erlangen, sowie Unternehmen, Hochschulen und Universitäten: ein Meetup mit Mehrwert!
Wo? Die dritte Auflage des erfolgreichen Kongresses überschreitet mit dem Annual Meetup von AIR den bisherigen Rahmen. Wir erwarten ca. 300 Gäste in den Räumlichkeiten des Jahnstadions Regensburg direkt an der Autobahn A3. In repräsentativem Ambiente wird die Veranstaltung ein Erlebnis auch unter Einbeziehung der Location.
Wer? Beteiligt ist das bewährte Team des Regensburger Cybersecurity-Kongresses: das Wirtschafts- und Wissenschaftsreferat der Stadt Regensburg, das Polizeipräsidium Oberpfalz, die IHK Regensburg für Oberpfalz/Kelheim, die Handwerkskammer Niederbayern-Oberpfalz Regensburg und der IT-Sicherheitscluster e. V. im Lead und der Organisation. Durch den Tag begleitet Sie Christian Omonsky als Moderator. Der 3RCSK wird dem gewachsenen Anspruch und dem besonderen Anlass mit hochrangigen Speakern Rechnung tragen):
- Begrüßung (Georg Barfuß, Leiter des Referates für Wirtschaft, Wissenschaft und Finanzen der Stadt Regensburg, Christian Götz, Vorstandsvorsitzender des IT-Sicherheitsclusters e. V.),
- Begrüßung, Keynote: Polizeivizepräsident Robert Fuchs, Regensburg,
- Podiumsdiskussion mit Dennis-Kenji Kipker, einem Vertreter des Cyber-Allianz-Zentrums des Landesamts für Verfassungsschutz und einem weiteren Fachkundigen.
- Fachvorträge: Stefan Becker (BSI, Bonn), Matthias Börsig (FZI, Karlsruhe), Anna Leschandowsky (Fraunhofer IIS, Erlangen), Maria Leitner (Universität Regensburg), Jochen Michels (Kaspersky Labs, Ingolstadt), Felix Rothmund (intive GmbH, Regensburg), Julian Rupp (Transferstelle Cybersicherheit, Berlin), Georg Wittmann (ibi research, Regensburg).
- Workshops: Wie wirken Phishing-Mails? Eyetracking im Einsatz LaS³/OTH Regensburg; WOW-Stand von i40, Regensburg. Fachausstellung.
Beabsichtigte Wirkung/Zielgruppe: Die Veranstaltung stärkt das Bewusstsein für die Notwendigkeit von Maßnahmen gegen Cybercrime einerseits durch Fachexpertise, andererseits durch die Einbindung der regionalen Wirtschaft und überregionalen Akteuren. Prominente Speaker bieten Gründe, die Veranstaltung zu besuchen. Die Beteiligung durch Einrichtungen des Bundes (Transferstelle, BSI) weckt Interesse vor Ort – nicht nur bei Unternehmen aus dem Wirtschaftszweig. Die Veranstaltung wird in der Region ansässigen Unternehmen durch Awareness stärken und ihre Resilienz fördern. Sie wird ferner Unternehmen der Domäne einerseits neue Kontakte, andererseits Gelegenheit bieten, ihre Kunden kennenzulernen – und so auch den Grundstein für eine starke, wirtschaftliche und wissenschaftliche Basis für Regensburg als KI-Standort legen – mit Breiten- und Außenwirkung gleichermaßen. Wir freuen uns über Ihre Unterstützung!
Fachvorträge (u. a.)
- Dennis-Kenji Kipker, cyberintelligence.institute, Cybercrime: Warum der AI Act nichts bringen wird – und was wir anstelle dessen tun müssen
Europa feiert sich: Mit dem Artificial Intelligence Act (AIA) wird das erste KI-Gesetz der Welt kommen – von einem historischen Meilenstein ist die Rede. Gleichzeitig lesen wir allerorts über die Risiken durch die KI – insbesondere im Bereich der Cybersicherheit, wo KI-Anwendungen zu einem regelrechten Aufblühen neuer Möglichkeiten von Cybercrime für quasi jedermann geführt haben. Und fest steht leider schon jetzt: So gut der neue AI Act auch sein mag und egal wie streng die zuständigen Aufsichtsbehörden sind – für KI als Cybercrime wird eine europäische Regulierung hier nur wenig bis gar nichts bringen. Betroffene Unternehmen und natürliche Personen sind vielmehr auf sich selbst angewiesen – und auf die Unterstützung durch die Cybersicherheitsbehörden, die künftig mit neuen gesetzlichen Befugnissen agieren werden. Dabei zeigt sich bei eingehender Betrachtung, dass sich die aus AI resultierenden Gefahren zumindest aus regulatorischer Sicht letztlich nur wenig bis gar nicht von konventionellem Cybercrime unterscheiden, da die neue Technologie nichts anderes als ein weiteres Mittel zum Zweck darstellt, das bei Verfügbarkeit entsprechend herangezogen wird. Soweit es deshalb um AI, Cybersecurity und Recht geht, ist die These klar: Es geht nicht um die Frage, ob AI ein Risiko für die Cybersicherheit oder durch die Möglichkeit zur Automatisierung von Abwehrmaßnahmen vielmehr ein Benefit darstellt, sondern es kommt auf den ganz konkreten Blickwinkel an. Und das bedeutet, dass AI in der Cyberabwehr definitiv ein Risiko darstellt, dem gesetzlich durch einen präventiven regulatorischen Rahmen nach dem „Stand der Technik“ begegnet werden muss. Und das ist weder eine exklusiv staatliche noch wirtschaftsbezogene Aufgabe, sondern eine gesamtgesellschaftliche Herausforderung.
- Matthias Börsig FZI, Karlsruhe; Künstliche Intelligenz und Cybersicherheit – Chancen und Risiken für die Unternehmen von Morgen
Im Zeitalter der umfassenden Digitalisierung und allgegenwärtigen Vernetzung (Internet of Things – IoT) stehen Unternehmen vor ungeahnten Möglichkeiten, aber auch vor wachsenden Gefahren. Diese Digitalisierung erfordert einen noch stärkeren Fokus auf Cybersicherheit. Die Cybersicherheit profitiert dabei von neuen Technologien wie der künstlichen Intelligenz (KI). KI kann Angriffe oder Fehler in Systemen aufdecken, die mit herkömmlichen Technologien nicht erkannt werden. KI kann aber auch von Angreifenden genutzt werden, um Angriffe effizienter durchzuführen. Gleichzeitig bringt der Einsatz von KI auch andere Herausforderungen mit sich. Angriffe auf KI, z. B. durch Manipulation der Trainingsdaten, führen zu unerwünschtem Fehlverhalten. Für Unternehmen stellen selbst trainierte KI-Modelle nun wertvolles geistiges Eigentum dar, das es zu schützen gilt. Darum ist es wichtig, dass sich die Unternehmen von morgen schon heute mit den Chancen und Risiken von Künstlicher Intelligenz im Bereich der Cybersicherheit auseinandersetzen.
- Jochen Michels, Kaspersky Director Public Affairs Europe, Kaspersky Labs GmbH, Ethische Grundsätze für den Einsatz von KI in der Cybersicherheit
Seit vielen Jahren setzt Kaspersky KI- bzw. ML-Algorithmen ein, um die Erkennung von Bedrohungen zu automatisieren und zu beschleunigen, Anomalien zu erkennen und die Genauigkeit der Malware-Identifizierung zu verbessern. Das ist auch notwendig, wenn man bedenkt, dass Kaspersky-Lösungen im Jahr 2023 täglich im Durchschnitt 411.000 neue Bedrohungen erkannt haben. Diverse internationale Diskussionsplattformen und Organisationen haben bereits generelle Grundsätze für eine ethische KI entwickelt (siehe z. B. die Empfehlungen der UNESCO), doch konkrete Leitlinien für die Cybersicherheitsbranche haben sich bisher nicht durchgesetzt. Kaspersky hat sich eigene Prinzipien für die ethische Nutzung von AI in der Cybersicherheit gegeben und diese erstmals auf dem Internet Governance Forum 2023 in Japan vorgestellt. Im Vortrag werden die Prinzipien vorgestellt und diskutiert. Dabei geht es um Transparenz, menschliche Kontrolle, Datenschutz, den Einsatz für defensive Zwecke sowie um die Sicherheit der ML/KI-Komponenten.
- Maria Leitner, UR, Gekommen, um zu bleiben: Cyberangriffe durch KI und die Vorbereitung darauf
Cyberangriffe werden immer häufiger mithilfe von künstlicher Intelligenz durchgeführt. Dieser Vortrag greift aktuelle Fälle von KI-unterstützten Cyberangriffen auf und verdeutlicht praxisnah, wie wir uns künftig mit Cybersicherheitsübungen, Schulungen und weiteren Schutzmaßnahmen auf diese vorbereiten können.
- Anna Leschandowsky, Fraunhofer IIS, Erlangen, Menschliche Faktoren im Fokus: Debiasing-Strategien für Datenschutz am Beispiel von Sprachassistenzsystemen
In einer zunehmend von KI-Systemen durchdrungenen Welt stehen Nutzende und Entwickelnde vor immer komplexeren Entscheidungen bezüglich Privatsphäre und Sicherheit. Menschliche Faktoren und kognitive Verzerrungen spielen hierbei eine zentrale Rolle. Debiasing- und Nudging Strategien, die bereits in verschiedenen Bereichen wie der Medizin, Luftfahrt und Politik erfolgreiche Anwendung finden, bieten vielversprechende Ansätze für die Entwicklung von Privatsphäre-schützenden Systemen. Am Beispiel der Sprachassistenzentwicklung zeigen wir auf, wie alle Akteure im Ökosystem von kognitiven Verzerrungen beeinflusst werden und wie Debiasing-Strategien dem entgegenwirken können. Wir präsentieren konkrete Beispiele für ihre Anwendung zur Verbesserung von Privatsphäre und Sicherheit bei der Entwicklung und Nutzung dieser Systeme.
- Felix Rothmund, intive GmbH, Regensburg, Leitplanken für Sprachmodelle
Große Sprachmodelle (engl. Large Language Models, LLMs) sind in der Lage, komplexe sprachliche Kontexte zu verarbeiten und hochkomplexe Anfragen zu beantworten. Verknüpft mit aktuellen Datenquellen und integriert in bestehende Systeme treiben LLMs die Entwicklung immer fortschrittlicherer KI-Anwendungen voran. Die Nutzung von Foundation Models, wie bspw. GPT-4, birgt allerdings auch gewisse Sicherheitsrisiken wie Prompt Injection Attacks und Herausforderungen bezüglich des Schutzes personenbezogener Daten und geistigen Eigentums. Dieser Vortrag stellt Methoden und Praktiken vor, die die Entwicklung sicherer und zuverlässiger KI-Lösungen ermöglichen, und beleuchtet praktische Anwendungsbeispiele.
- Dr. Georg Wittmann, Mittelstand Digital-Zentrum Handel/ibi research an der Universität Regensburg GmbH, E-Commerce und KI – die guten und die schlechten Seite
Der Handel war schon immer im Wandel. Aber aktuell hat der Handel immer wieder mit neuen Krisen, Risiken und Handlungsfelder umzugehen. KI ist in diesem Zusammenhang Chance und Risiko zugleich. Insbesondere beim Thema Betrug. Die Zahl der Betrugsfälle nimmt nachgewiesenermaßen zu, die Betrugstechniken werden immer ausgefeilter, für Händler wird es immer schwieriger zwischen Bots und Fraudsters zu unterscheiden und mit Krypto und Metaverse treten auch neue Betrugsmuster auf.