Während einer internationalen Zusammenkunft einiger der weltweit führenden Experten für künstliche Intelligenz wurde eine definitive Stellungnahme zu den Gefahren von KI verfasst. Die raschen Fortschritte in den Fähigkeiten von KI-Systemen bringen die Menschheit näher an eine Welt, in der KI auf menschliche Intelligenz trifft und diese übertrifft, heißt es in der Erklärung der International Dialogues on AI Safety (IDAIS), einem interkulturellen Konsortium von Wissenschaftlern, das darauf abzielt, KI-Risiken zu mindern.
Mit Größen wie dem Informatiker des Turing-Instituts Geoffrey Hinton und Zhang Ya-Qin, dem ehemaligen Präsidenten des chinesischen Technologiekonglomerats Baidu, repräsentieren die Unterzeichner der Erklärung führende KI-Denker weltweit. Die Experten sind sich einig, dass diese KI-Systeme voraussichtlich in den kommenden Jahrzehnten entwickelt werden und viele von ihnen glauben, dass sie unmittelbar bevorstehen könnten. Ein Verlust der menschlichen Kontrolle oder die bösartige Nutzung dieser KI-Systeme könnte katastrophale Folgen für die gesamte Menschheit haben.
Diese „Konsenserklärung“ wurde auf dem dritten Treffen der Gruppe in Venedig verfasst und zielt nicht nur darauf ab, die AI-Risiken zu umreißen, sondern sie auch zum „globalen Gemeinwohl“ auszurichten. Da AI keine internationalen Grenzen kennt, ist es nach Ansicht der IDAIS-Unterzeichner von größter Bedeutung, über diese Technologie und ihre Risiken global nachzudenken.
Da es bereits „vielversprechende erste Schritte der internationalen Gemeinschaft“ hin zur Zusammenarbeit bei der AI-Sicherheit auf Regierungsgipfeln gegeben hat, müssen diese Bemühungen fortgesetzt werden, um im Interesse der Entwicklung eines „globalen Notfallplans“ voranzukommen. Solche Notfallpläne würden die Einrichtung internationaler Gremien zur Schaffung von Notfallbereitschaft umfassen – es ist nicht bekannt, ob dies innerhalb oder außerhalb einer etablierten Organisation wie den Vereinten Nationen stattfinden würde – sowie eine gegenseitige Übereinkunft über „rote Linien“ und was zu tun ist, wenn sie überschritten werden.
Obwohl IDAIS‘ Empfehlungen wahrscheinlich sinnvoll sind und ein internationaler Dialog zu einem so wichtigen Thema unerlässlich ist angesichts des bevorstehenden militarisierten AI-Wettlaufs zwischen den Vereinigten Staaten und China.