Daten + Worte

Sonderthema: Künstliche Intelligenz und Digitale Souveränität in der Schweiz

Guido Greber & Christian Laux Season 1 Episode 17

Send us a text

Stellen Sie sich vor, Sie könnten die Balance zwischen technologischer Innovation und staatlicher Regulierung perfekt meistern. Wie würde sich das auf die digitale Souveränität der Schweiz auswirken? In dieser Episode beleuchten wir die Herausforderungen und Chancen, die Künstliche Intelligenz (KI) in diesem Kontext bietet. Wir diskutieren, wie der Staat Technologien wie KI optimal einsetzen kann, um sowohl die Bevölkerung als auch die Infrastruktur vor Missbrauch und Angriffen, wie etwa Deepfakes, zu schützen. Gleichzeitig gehen wir darauf ein, wie KI genutzt werden kann, um staatliche Dienstleistungen zu verbessern, und wie der neue KI-Akt der EU dabei eine Rolle spielt.

Auch der richtige Umgang mit neuen Technologien ist ein zentrales Thema dieser Episode. Wir betonen die Wichtigkeit, vorhandene Instrumente richtig zu nutzen und zukünftige Methoden zu erkennen, die sich durchsetzen könnten. Ein weiteres Highlight ist die Souveränität in der Cloud und der Künstlichen Intelligenz, wobei wir die Diskussion darüber für eine spätere Vertiefung reservieren. Erfahren Sie, warum es unerlässlich ist, diese Technologien zu verstehen und angemessen zu nutzen, während wir gleichzeitig die Realität und die unausweichlichen Herausforderungen im Umgang mit diesen Innovationen beleuchten.

Copyright und Produziert durch Swiss Data Alliance.

Danke DigitalSwitzerland, EPFL und Accenture für die Unterstützung in der Produktion.


Speaker 1:

Swiss Data Alliance präsentiert. Daten und Worte der Podcast über digitale Souveränität, Datensouveränität.

Speaker 2:

So AI und die Systemsicht Blick auf den Staat und hat das Thema mit AI, mit Souveränität zu tun. Jetzt deine Perspektive hast du eine drauf.

Speaker 1:

Ja, also, ich habe eine Perspektive, und zwar ist halt der Staat muss halt auch verstehen, die Technologie verstehen. und Technologie kann ja missbraucht werden. Ja, und wir hatten Diskussionen schon die kann deepfakes genutzt werden, attacken, es erhöht die Geschwindigkeit von Angriffen, und ich will das ja souverän von meinem Staat fernhalten, von meinen Einwohnern. Ich will meine Einwohner schützen auf eine entsprechende Art. Auf der anderen Seite brauche ich als Staat auch die AI, um auch gewisse Funktionalitäten, geschwindigkeiten, das brauche ich auch im System, das heisst. ich muss mit beiden umgehen können.

Speaker 1:

Aber klar ich denke, in unserem Kontext von Souveränität und auch auf die Diskussionen zurückzukommen ist wie schütze ich die Schweiz oder wie schütze ich die Einwohner oder auch die Infrastruktur der Schweiz vor entsprechenden Angriffen? ich will keine Angst scheuen, aber vor gewissen Szenarien, wo das missbraucht werden kann, und ich glaube da und ich korrigiere mich da da muss halt der Staat auch entsprechend Massnahmen machen, wobei man danach wieder aufpassen muss. jetzt nehmen wir kurz den KI-Akt von EU als Beispielgekommen. Ich habe auch das Gefühl, wenn man zu fest das reguliert und falsch reguliert, und wir wissen jetzt nicht, wie das umgesetzt richtig wird das werden wir noch sehen, das ist relativ neu aber als halt der Staat oder auch eine Union, wenn man es die EU nimmt, dass vielleicht eine Innovation auch unterdrückt wird, geht es nicht mit Ja, aber ich will es.

Speaker 2:

Also den AI Act, und inwiefern der auf die Wirtschaft einen Einfluss hat, das würde ich hier mal noch ausklammern. Was mich interessiert, ist diese Risiko ExpExposure, also dass Angriffe schneller lanciert werden können, weil es Hilfsmittel gibt einerseits, dass aber der Staat andererseits sich dieser Hilfsmittel auch bedienen will, um selber seine eigenen Leistungen besser und schneller anbieten zu können. Also da hat AI als Instrument eine Bedeutung. Ich würde noch weitergehen und jetzt in dem Kontext Folgendes sagen, und zwar am Beispiel der Deepfakes, die du bereits erwähnt hast Wir werden konfrontiert werden mit immer mehr Deepfakes, und dort kann es dann eben sein, dass man nicht mehr weiss, was ist wahr und was ist falsch, und wer wurde jetzt da gerade beschrieben.

Speaker 2:

Also, es kann sein, dass Deepfakes kommen, die meine Person in einem Kontext zeigen, auch mit Aussagen zeigen, die ich nicht gemacht habe. Diesen Kontext hat es auch nie gegeben, und trotzdem sieht es schlecht aus. Und dann hat irgendjemand in meinem privaten Umfeld dann den Eindruck oh, aber das ist ja fürchterlich, und das ist aber eine Verleumdung eigentlich von meiner Person, oder es ist eine Identitätsklau, und hier muss ich geschützt werden. Einerseits, der Staat wird das aber nicht können. Er wird das deswegen nicht können, weil solche solche Deepfakes auch aus dem Ausland in die Schweiz ich sage jetzt mal rüberschwappen können, und dort wird eine Strafsanktion und es gibt bereits einige im Schweizerischen Gesetz dafür wird nichts nützen.

Speaker 2:

Das bedeutet, dass also Verunsicherung entstehen kann in der Schweiz, obwohl der Staat die Mittel bereits ergriffen hat, die er zur Verfügung hat, und mehr hat er nicht, und damit kann also der Staat gewisse Angriffe gar nicht abwenden, und diese erfolgen im digitalen Bereich, und die Folge davon ist, dass der Kitt in der Gesellschaft bröckelt und damit die Schweiz als Staat destabilisiert wird. Und dieses Szenario, das sehe ich, und das ist eine Gefährdung für Souveränität in dem Kontext, und hier muss man Massnahmen ergreifen, um sich auf eine Situation einzustellen. Wie gehen wir um in einer Welt, wo Informationen rumschwirren, die nicht belastbar sind, die falsch sind, die sogar absichtlich gefälscht sind, mit dem Ziel der Verunsicherung Gibt es da.

Speaker 1:

Methoden schon, die du kennst, die du kurz erwähnen könntest in der Runde.

Speaker 2:

Ich kann nur konzeptionell über das digitale Dorf sprechen, also Nähe herstellen durch digitale Mittel. Warum sage ich digitales Dorf? Im Dorfkontext von vor vielen hundert Jahren oder auch jetzt besteht Nähe, und die Nähe, die führt auch zu einer Nachweisbarkeit, und das war im Dorf, hat man nie diskutieren müssen. Das ist wahrscheinlich falsch. Aber man hat sehr, sehr genau gewusst, wer was gemacht hat. Das ist der klassische.

Speaker 1:

Ich weiss, was in der Nachbarschaft passiert.

Speaker 2:

Genau, da war einfach sehr, sehr viel bekannt. Und diese Nachvollziehbarkeit, die kann mit Identifikationsmitteln digitaler Art und Authentisierungsmethoden, die kann man aber müsste man auch bereitstellen, damit man so etwas wie eine Referenz, ein Referenzmodell entwickelt und sagt wir möchten nicht feststellen, was wahr ist, aber wir möchten feststellen, wo es herkommt.

Speaker 1:

Also geht man ja eigentlich wenn ich das zusammenfasse gegen diese Möglichkeiten von Gefahr. Wenn man es formulieren möchte, geht man auch mit AI im so reinen Kontext, geht man entsprechend mit anderen digitalen Mitteln vor, um das auch abzuwehren.

Speaker 2:

Wenn man es so sagen möchte, kann man es so formulieren Das kann man so formulieren, wobei ich natürlich nichts für mich in Anspruch nehme, alle Möglichkeiten zu kennen, aber das wäre das, was ich mir als berecht oder als guten oder als machbaren Weg vorstelle.

Speaker 1:

Ich möchte auch noch einmal erwähnen wir reden hier wirklich von Souveränität und AI. Wir wissen alle, ai hat riesige Vorteile. Wir möchten einfach noch in der Runde klarstellen im souveränen Kontext im Plusbegriff das ist der Fokus. Wir sind ja nicht Gegner von AI, ich glaube beide. Aber es muss halt, wie sagt man, richtig eingesetzt werden. Es muss verstanden werden.

Speaker 2:

Es ist ein Instrument, und das Instrument ist sehr mächtig und hilfreich, und man soll es einsetzen, weil es eben auch viele Vorteile bringt und grossen Nutzen schafft. Aber es ist ein Instrument, das, weil es eben so kräftig ist, auch missbraucht werden kann. Und das, wie sagt man in Englisch Big time? ja Genau.

Speaker 1:

Ich würde es einfach mal jetzt auch im Raum mal kurz stehen lassen, und die Argumente haben wir jetzt gesagt auch nochmal zusammengefasst.

Speaker 2:

Und übrigens, dass ich mich unterbreche es ist eine Realität. Wir können uns auf den Kopf stellen, es ist da. Es ist da. Wir müssen damit umgehen. Wir können uns auf den Kopf stellen, es ist da.

Speaker 1:

Es ist da, wir müssen damit umgehen, wir müssen es verstehen, wir müssen Instrumente richtig einsetzen. und welche Methode sich durchsetzen wird, das werden wir noch sehen. Genau Super. Ich würde das Thema jetzt mal Souveränität und Cloud mal parkieren, und dann können wir mal uns um Souveränität und Cloud ein bisschen einholen dürfen.

Speaker 2:

Genau. wir werden das Thema Souveränität und AI parkieren.

Speaker 1:

Genau, Und nicht für Cloud, weil am Ende vom Tag braucht er AI, und das braucht die Cloud, sonst geht es nicht Genau.

People on this episode