Der THTR-Rundbrief

Newsletter VIII 2024

18. Februar bis ...

***


  2024 2023 2022 2021
2020 2019 2018 2017 2016
2015 2014 2013 2012 2011

Aktuelles+ Hintergrundwissen

Die PDF-Datei "Nuclear Power Accidents" enthält eine Reihe weiterer Vorfälle aus verschiedenen Bereichen der Atomindustrie. Einige der Vorfälle wurden nie über offizielle Kanäle veröffentlicht, so dass diese Informationen der Öffentlichkeit nur auf Umwegen zugänglich gemacht werden konnten. Die Liste der Zwischenfälle in der PDF-Datei ist daher nicht zu 100% identisch mit "INES und die Störungen in kerntechnischen Anlagen", sondern stellt eine Ergänzung dar.

Februar 2008 (INES Klass.?) Akw Paluel, FRA

Februar 2008 (INES 0 Klass.?) Atomfabrik La Hague, FRA

1. Februar 2010 (INES Klass.?) Akw Vermont Yankee, USA

4. Februar 2008 (INES 0) Akw Krümmel, DEU

5. Februar 1958 (Broken ArrowTybee Island, USA

6. Februar 1974 (INES 4-5) Akw Sosnowy Bor, UdSSR

8. Februar 2004 (INES 0) Akw Biblis, DEU

12. Februar 2013 (Nordkoreas 3. Atomwaffentest) P'unggye-ri, PRK

13. Februar 1960 - (Frankreichs 1. Atombombentest) Reggane, FRA

13. Februar 1950 (Broken ArrowBritisch Columbia, CAN

16. Februar 2011 (INES 2) Akw Tricastin, FRA

22. Februar 1977 (INES 4) Akw Jaslovské Bohunice, SVK

28. Februar 1954 (6 Wasserstoffbombentests) Bikini Atoll, USA

 

Wir sind immer auf der Suche nach aktuellen Informationen. Wer helfen kann, sende bitte eine Nachricht an: nukleare-welt@reaktorpleite.de

 


25. Februar


 

UNO | Künstliche IntelligenzKriegsführung

KI und Krieg: Entgleitet uns Menschen die Kontrolle?

Viele KI-Tools führen zur Verbesserung der Lebensqualität. Bei militärischen Anwendungen lauern aber große Gefahren – bis hin zum Kontrollverlust. Eine Warnung. (Teil 1)

Immanuel Kant, der in diesem Jahr 300 Jahre alt geworden wäre, formulierte 1795 in seiner Schrift "Zum ewigen Frieden" grundlegende Überlegungen zu einer internationalen Friedenspolitik, die in einem Gegensatz zu der heutigen Realität zunehmend militärisch ausgetragener Konflikte stehen. Kant forderte hingegen die Überwindung des kriegerischen Zustands der Menschheit zugunsten einer bewussten Friedensstiftung:

Der Friedenszustand unter Menschen, die neben einander leben, ist kein Naturstand (status naturalis), der vielmehr ein Zustand des Krieges ist, d.i. wenn gleich nicht immer ein Ausbruch der Feindseligkeiten, doch immerwährende Bedrohung mit denselben. Er muß also gestiftet werden (…).
Immanuel Kant

Kant vertrat die Auffassung, dass republikanisch strukturierte Staaten eher zu Frieden als zu Krieg neigen würden und forderte einen internationalen Friedensbund als Voraussetzung der Beendigung aller Kriege.

[...] Die Struktur der UN, insbesondere das Vetorecht der fünf ständigen Mitglieder im UN-Sicherheitsrat und die relative Machtlosigkeit der UN-Generalversammlung, führt zu einer institutionellen Hilflosigkeit der UN bei gegenwärtigen Konflikten.

Inzwischen kommt allerdings eine die Gesamtsituation verschärfende Problematik hinzu, auf die weder die UN noch die EU oder die nationale Politik vorbereitet sind: Die Entwicklung und der Einsatz von Künstlicher Intelligenz im Zusammenhang mit modernisierten Waffensystemen.

[...] Auch wenn in der Politik immer wieder betont wird, dass letztlich die Entscheidung über den tödlichen Einsatz einer Waffe bei einem Menschen bleiben muss ("man in the loop"), wird dieses Prinzip teilweise bereits infrage gestellt...

 

IMHO

Wer hatte während eines Krieges jemals die Kontrolle? Verbessert KI die Lebensqualität? Von Menschen gemachte Kriege sind besser? So viele Implikationen, ich kann Teil 2 kaum erwarten.

 


Aktuelles+  Hintergrundwissen Seitenanfang

 

Aktuelles+

Künstliche Intelligenz und die Propaganda der Horrorclowns

Neuer OpenAI-Dienst Sora

Täuschend echte KI-Videos: Was, wenn wir gar nichts mehr glauben können?

Das neue KI-Modell Sora der ChatGPT-Erfinder OpenAI generiert täuschend echte Videos. Viele befürchten bereits eine Flut von Desinformationen und äußerst realistischen Deepfakes. Doch was, wenn gar nicht die Videos selbst das Problem sind?

Hannover. Es fühlt sich an wie ein Déjà-vu. Wie damals, im Frühjahr 2023, als plötzlich alle über ChatGPT sprachen. Nun sorgen die Macher des populären KI-Chatbots erneut für Erstaunen, Begeisterung und Angst gleichermaßen: Mit Sora haben sie ein KI-Modell vorgestellt, das aus Text täuschend echte Videoclips generieren kann. Die Ergebnisse sind derart authentisch, dass in den sozialen Netzwerken kontrovers über den Einsatzzweck und die Gefahren der Technik diskutiert wird.

Manch einer zeigt sich hellauf begeistert. Das Videomodell der amerikanischen Start-up-Hoffnung OpenAI werde alle möglichen Branchen „umkrempeln“, heißt es in Postings etwa auf der Plattform Threads. Videografen und professionelle Kameraleute brauche es künftig vielleicht gar nicht mehr, befürchten derweil andere. Und manch einer sieht bereits den Untergang der Unterhaltungsbranche, sollte Künstliche Intelligenz einmal ganze Kinofilme erschaffen können.

Andere wiederum sorgen sich weniger um den Verlust von Arbeitsplätzen, sondern vielmehr um die Demokratie. Sollte der Zeitpunkt kommen, an dem jeder solche Modelle mit zwei Mausklicks bedienen kann, könnten gefälschte Videos noch und nöcher die sozialen Medien fluten. Schon in den vergangenen Monaten war immer wieder über Desinformationen durch sogenannte Deep-Fake-Videos diskutiert worden, die nicht zuletzt auch Politikerinnen und Politiker trafen.

Was kommt da auf uns zu? Und wie könnten KI-generierte Fake-Videos langfristig zum Problem werden?

Sora macht noch Fehler

Zum gegenwärtigen Zeitpunkt – so viel sei vorangestellt – ist diese Frage noch eine theoretische. Zwar gab es schon einige prominente KI-Deepfakes – das neue, hochakkurate Sora-Modell steht bislang aber nur ausgewählten Kreativen zur Verfügung und kann noch nicht öffentlich getestet werden.

[...] Fakes müssen nicht perfekt sein

Das Problem: Perfekte Videos sind im Zweifel aber gar nicht nötig, um Schaden anzurichten. „Sora ist absolut in der Lage, Videos zu erstellen, die normale Leute täuschen könnten“, sagt etwa Rachel Tobac, Mitbegründerin von SocialProof Security, einer Hacking-Organisation mit Schwerpunkt auf Social Engineering, gegenüber dem Magazin „New Scientist“. „Videos müssen nicht perfekt sein, um glaubwürdig zu sein.“ Vielen Menschen sei schließlich immer noch nicht klar, dass Videos genauso leicht manipuliert werden können wie Bilder.

Hinzu kommt ein anderes Problem: Die Entlarvung eines KI-Fakes, etwa ein Faktencheck, müsste die Hereingefallenen überhaupt erst mal erreichen. Desinformationskampagnen der Vergangenheit haben gezeigt, dass Factchecking-Portale und journalistische Medien oftmals gegen Windmühlen kämpfen und sich der Fake trotz aller Aufklärung weiterverbreitet.

Und natürlich stoppt auch die technische Entwicklung nicht. Sora ist heute schon um Längen besser als alle anderen zuvor veröffentlichten KI-Video-Generatoren. Es dürfte nur noch eine Frage der Zeit sein, bis das Modell auch klatschende Hände beherrscht und Städte so baut, dass sie nicht nur optisch hübsch sind, sondern auch Sinn ergeben. Die Möglichkeiten, Fakes von der Realität zu unterscheiden, dürften in der Zukunft damit immer geringer werden.

[...] Manch einer hat mit dem Thema längst innerlich abgeschlossen: „Es ist besorgniserregend. Ich glaube aber nicht, dass wir noch was dagegen tun können – der Zug ist bereits abgefahren“, schreibt jemand. „Die Scheiße, die Sora erzeugen kann, ist so umwerfend real, dass selbst der erfahrenste Videokünstler das nicht kann. Wir sind am Arsch, Mann“, meint ein anderer. Einer kann der Entwicklung aber auch etwas Positives abgewinnen: „Das einzig positive Ergebnis ist, dass die Täuschung durch Technologie ein derart diskutiertes Thema sein wird, dass sich die Menschen endlich der Gefahren bewusst werden.“

Doch was, wenn gerade letztgenanntes Argument langfristig die eigentliche Gefahr birgt? Dass gar nicht das gefälschte Video an sich den Schaden anrichten wird – sondern die Tatsache, dass man überhaupt nichts mehr glauben kann?

Es geht um Verunsicherung

Akteure, die Desinformationen verbreiten, setzten schon seit vielen Jahren auf genau diese Taktik. Stephan Lewandowsky, Professor für Kognitive Psychologie an der University of Bristol, sagte bereits 2019 der „Zeit“, es gehe bei Misinformationen gar nicht mehr darum, falsche Fakten in die Köpfe der Leute zu pflanzen – sondern sie zu verunsichern.

„Es geht darum, Verwirrung und Chaos zu stiften. Das ist heute anders als früher. Russische Bots beispielsweise twittern in den USA auf beiden Seiten des Impfstreits, manche dafür, manche dagegen. (...) Das einzige Ziel ist es, Spaltungen in der Gesellschaft zu vertiefen.“...

Weiterlesen ...

 


Aktuelles+  Hintergrundwissen Seitenanfang

 

Hintergrundwissen

Die Karte der nuklearen Welt

Wenn diese Hochrisikoanlagen alle von KI kontrolliert werden, dann...

*

Die "Interne Suche"

Künstliche Intelligenz | Propaganda | Horrorclowns

16. Februar 2024 - Alexej Nawalny war mutig genug, Putins absurde Tyrannei zu verspotten

4. Juni 2023 - Politik mit Gift, Hetze und Propaganda

4. Mai 2023 - Hirnscanner: US-Forscher kommen mit KI dem Gedankenlesen näher

1. November 2022 - Fürchtet nicht Fortschritt und Technologie, fürchtet Kapitalismus

19. November 2021 - Glasgow Dreamboys 3 - Neues von den Horrorclowns - Glasgow war Gestern

*

Die Suchmaschine Ecosia pflanzt Bäume!

https://www.ecosia.org/search?q=Künstliche Intelligenz

https://www.ecosia.org/search?q=Sora

*

OpenAI

Creating video from text

Sora is an AI model that can create realistic and imaginative scenes from text instructions...

*

verbraucherzentrale

24. November 2023 - Künstliche Intelligenz: Funktionsweise, Anwendungsgebiete und Risiken

Künstliche Intelligenz ist längst keine Science-Fiction mehr. Ganz im Gegenteil: Sie ist aus dem Alltag vieler Verbraucher:innen nicht mehr wegzudenken. Aber wie funktioniert Künstliche Intelligenz eigentlich? Wo findet sie überall Anwendung und was sind die Risiken?

Das Wichtigste in Kürze:

  • Künstliche Intelligenz ahmt menschliche kognitive Fähigkeiten wie das Lernen und Wahrnehmen nach.
  • Künstliche Intelligenz ist in unserem modernen Alltag allgegenwärtig. Sie erleichtert ihn wesentlich und bietet viele Möglichkeiten.
  • Bei dem Einsatz von KI werden viele persönliche Daten erhoben. Schützen Sie Ihre Daten!

In einer fremden Großstadt im Berufsverkehr die Ausfahrt verpasst? Kein Problem, binnen Sekunden berechnet das Navigationsgerät die neue, angepasste Route und eine freundliche Stimmte erklärt Ihnen, wie es weitergeht.

Wie ist das möglich? Dahinter steckt eine komplexe Künstliche Intelligenz (kurz: KI; englische Abkürzung AI für Artificial Intelligence). In Echtzeit erhebt sie Daten und wertet diese aus. Das ist nur ein Beispiel von vielen, das zeigt, wie sehr KI unseren Alltag heute vereinfacht.

Was ist Künstliche Intelligenz?

Bei der Künstlichen Intelligenz werden Informationssysteme so entwickelt, dass sie kognitive Fähigkeiten des Menschen, etwa das Lernen, die Wahrnehmung und die Kreativität, möglichst gut nachahmen. Ziel ist es, dass sie bestimmte Aufgaben automatisiert übernehmen.

Die KI wird mit allerhand Daten „gefüttert“. Diese analysiert sie nach bestimmten Kriterien und gibt sie sortiert wieder aus. Das kann entweder nach sehr starren Vorgaben ablaufen, wie zum Beispiel bei "Algorithmen" oder auch durch komplexe Prozesse wie beim „maschinellem Lernen“ und „Deep Learning.“...

*

Wikipedia

Künstliche Intelligenz

Künstliche Intelligenz (KI), auch artifizielle Intelligenz (AI), englisch artificial intelligence, ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwierig zu definieren, da es bereits an einer genauen Definition von „Intelligenz“ mangelt. Dennoch wird er in Forschung und Entwicklung verwendet.

Ein Versuch der Definition von „Intelligenz“ ist, dass sie die Eigenschaft sei, die ein Wesen befähigt, angemessen und vorausschauend in seiner Umgebung zu agieren; dazu gehört die Fähigkeit, Umgebungsdaten wahrzunehmen, d. h. Sinneseindrücke zu haben und darauf zu reagieren, Informationen aufzunehmen, zu verarbeiten und als Wissen zu speichern, Sprache zu verstehen und zu erzeugen, Probleme zu lösen und Ziele zu erreichen.

Praktische Erfolge der KI werden schnell in die Anwendungsbereiche integriert und zählen dann nicht mehr zur KI. Wegen dieses sogenannten „KI-Effekts“ scheint die KI-Forschung sich nur mit harten Nüssen abzumühen, die sie nicht knacken kann, was auch Teslers „Theorem“ zum Ausdruck bringt: „Intelligenz ist das, was Maschinen noch nicht gemacht haben“...
 

KI bei Tötungsmaschinen und Kriegswaffen

Am 18. September 2021 wurde bekannt, dass der iranische Kernphysiker, Hochschullehrer und Angehörige der iranischen Revolutionsgarden Mohsen Fachrisadeh durch KI-gesteuerte Tötungs-Roboter mit hoher Schusswaffen-Präzision ermordet wurde. Trotz der bekannten Gefährdung des Wissenschaftlers, seiner Eskortierung und seinem starken Personenschutz waren, einem Artikel der New York Times zufolge, nur 15 hochpräzise Schüsse zu seiner Tötung notwendig. Dies wurde durch eine KI-gestützte Gesichtserkennung möglich, die offenbar genau zwischen dem Wissenschaftler, seiner Frau und seinen Kindern unterscheiden konnte. Die Frau saß, genau wie seine Söhne, nur wenige Zentimeter von ihm entfernt im Auto und blieb beim Attentat dennoch physisch unverletzt. Die Kontrolle über das Attentat erfolgte dem Artikel zufolge aus 1600 Kilometer Entfernung, an einem nicht näher genannten Ort.

Im Zuge des russischen Angriffskrieges auf die Ukraine seit dem Februar 2022 ist die mediale Aufmerksamkeit für den Einsatz von KI für militärische Zwecke gestiegen. In Deutschland beschäftigen sich sowohl die Bundeswehr als auch die private Rüstungswirtschaft intensiv mit der Entwicklung und Implementierung von KI-unterstützten Waffensystemen.

Im Mai 2023 erregte der Vortrag eines Colonels der U.S. Air Force Aufsehen, der bei einer Militär-Konferenz in London geschildert hatte, wie KI ihre Einsatz-Parameter verletzt und den eigenen Kontrollturm angegriffen habe, weil sie den menschlichen Operator als Hindernis bei der Erfüllung ihrer Mission betrachtet hätte. Kurz darauf ließ das U.S.-Militär klarstellen, es habe sich um keine echte Übung, sondern lediglich um ein Gedankenexperiment gehandelt...

*

YouTube

Suchbegriffe: Künstliche Intelligenz, OpenAI`s Sora

 

Wird in einem neuen Fenster geöffnet! - YouTube-Kanal "Reaktorpleite" Playlist - Radioaktivität weltweit ... - https://www.youtube.com/playlist?list=PLJI6AtdHGth3FZbWsyyMMoIw-mT1Psuc5Playlist - Radioaktivität weltweit ...

In dieser Playlist finden sich über 150 Videos zum Thema Atom*

 


Zurück zu:

Newsletter VIII 2024 - 18. bis 24. Februar

Zeitungsartikel 2024

 


Für die Arbeit an 'THTR Rundbrief', 'reaktorpleite.de' und 'Karte der nuklearen Welt' braucht es aktuelle Informationen, tatkräftige, frische Mitstreiter und Spenden. Wer helfen kann, sende bitte eine Nachricht an: info@reaktorpleite.de

Spendenaufruf

- Der THTR-Rundbrief wird von der 'BI Umweltschutz Hamm' herausgegeben und finanziert sich aus Spenden.

- Der THTR-Rundbrief ist inzwischen zu einem vielbeachteten Informationsmedium geworden. Durch den Ausbau des Internetauftrittes und durch den Druck zusätzlicher Infoblätter entstehen jedoch laufend Kosten.

- Der THTR-Rundbrief recherchiert und berichtet ausführlich. Damit wir das tun können, sind wir auf Spenden angewiesen. Wir freuen uns über jede Spende!

Spendenkonto: BI Umweltschutz Hamm

Verwendungszweck: THTR Rundbrief

IBAN: DE31 4105 0095 0000 0394 79

BIC: WELADED1HAM

 


Aktuelles+ Hintergrundwissen Seitenanfang

***