Führende Mitarbeiter von OpenAI, haben Anfang Juli 2023 davor gewarnt, dass noch in diesem Jahrzehnt eine Superintelligenz entstehen könnte. Selbst wenn dies eintreten sollte, stellt sich die Frage, in welcher Form sich mögliche Gefahren äußern. Derzeit ist schwer vorstellbar, dass solche Systeme in naher Zukunft bereits eine vollständige Macht, z.B. in Form von Roboter-Armeen über uns haben.
Vorstufen einer Superintelligenz mit großen Fähigkeiten in der sprachlichen Kommunikation, sowie der Programmierung können bereits sehr bald erreicht werden, und solche Systeme können sich dann selbst ständig verbessern und könnten unter anderem bisher unbekannte Cyberangriffs- oder Internetmanipulationsfähigkeiten erreichen. Solche Systeme könnten dann von Menschen oder Staaten missbraucht werden, oder sogar selbst aktiv werden, und den Informationsfluss im Internet beherrschen und damit menschlichen Informationsfluss lahmlegen. Mit Hilfe von KI-Systemen oder durch diese könnte also eine Informationsdominanz erreicht werden, die alle Bereiche betreffen würde, auch das Finanzwesen. Als Folge könnten Finanzwesen und Handel zumindest zeitweise zusammenbrechen und unsere Gesellschaftssysteme instabil werden.
Wenn hierbei Atomwaffenstaaten in existenzielle Notsituationen geraten, würde das Atomkriegsrisiko erheblich steigen. Da die Abhängigkeit von technischen Systemen inzwischen sehr groß ist, was auch für die Kommunikation im Internet gilt, wären weltweite Krisen die Folge und in solch kritischen Situationen können Fehler in Frühwarnsystemen für nukleare Bedrohungen leicht zu einem Atomkrieg aus Versehen führen (siehe https://atomkrieg-aus-versehen.de).