Wikipedia:WikiProjekt KI und Wikipedia/Artikel allgemein

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Essentials
Diskussion
Hintergrund
Texte
Übersetzung
Bild/Video/Musik
Qualitätssicherung
Interesse
Allgemeine Weblinks, Literatur, Vorträge etc., wenn sie nicht nur ein Thema betreffen, welches extra aufgeführt ist.

Visual Editor


Der Ersteller hat Midjourney 5.2 benutzt. Hintergrund heisst hier, in die Tiefen zu blicken...

Chronologie (Schwerpunkt deutschsprachige WP)

[Quelltext bearbeiten]

Erfolg, wenn es denn einer wird, hat viele Väter und Mütter. Hier wird eine Chronologie begonnen, wo das Thema KI und Wikipedia bei uns eine Rolle spielte. Bitte nachtragen, wenn etwas fehlen sollte.

  • 71. DTS, 6. April 2023: „Kann künstliche Intelligenz Wikipedia-Artikel schreiben?“ Salino01
    • Die Künstliche Intelligenz hat sich in letzter Zeit rasant entwickelt. Insbesondere die Sprachqualität hat sich seit der Einführung von ChatGPT 3.0 deutlich verbessert. Der Chatbot kann Fragen zu den ausgefallensten Themen beantworten. Der computergenerierte Text ist auf den ersten Blick kaum von menschlichem Text zu unterscheiden. Aber kann ein Computer auch Wikipedia-Artikel schreiben?
  • 73. DTS, 2. Mai 2023: „Wer hat's geschrieben? Mensch oder Maschine?“ – interaktiver Vortrag mit Doris Weßels
    • Die Künstliche Intelligenz hat sich in letzter Zeit rasant entwickelt. Insbesondere die Sprachqualität hat sich seit der Einführung von ChatGPT 3.0 deutlich verbessert. In einem früheren Themenabend haben wir festgestellt, dass Integrität und Zuverlässigkeit der Informationen nicht immer gegeben sind. In diesem Stammtisch haben wir uns mit der Frage beschäftigt, ob und wie künstlich erzeugter Text von menschlichem Text unterschieden werden kann. Im ersten Teil des Abends ging es um die automatische Erkennung von KI-Texten. Die Erkennungsrate ist jedoch nicht besonders zuverlässig und von der Art (Schreibstil) abhängig. Das Ergebnis hängt von der Länge des Textes ab und bereits kleine Ergänzungen oder Änderungen haben einen großen Einfluss auf das Ergebnis. Es gibt auch zahlreiche Falschmeldungen (menschliche Texte werden als potentiell KI gewertet). Außerdem können meist nur englische Texte überprüft werden.
  • 79. DTS, 21. September 2023: „Literaturrecherche in Zeiten künstlicher Intelligenz“ mit Anika Limburg (Leiterin des lernzentrums Hochschule Rhein-Main)
    • Künstliche Intelligenz hat das Bildungssystem revolutioniert und wird es weiterhin tun. In der Vergangenheit wurden Literaturrecherchen mit Hilfe von Schlüsselwörtern durchgeführt, die durch UND- oder ODER-Verknüpfungen kombiniert wurden. Das Problem bestand darin, passende Übersetzungen und Synonyme zu finden. Die KI-Suche greift auf große Sprachmodelle zurück... Die KI-Suche unterscheidet sich aber auch vor allem in der Bewertung und Darstellung der Ergebnisse, d.h. die Treffer werden anders angezeigt.
  • Veranstaltung zur WikiCon Linz, 30. September 2023 2045 − Wie Wikipedia in Zeiten von KI überleben kann. Linz Wikiolo, XanonymusX, Denny, Lydia Pintscher (mit Foliensatz und Aufzeichnung)
    • Ausgehend vom raschen technischen Fortschritt von LLMs wurde dargestellt, wieso diese Entwicklung für die Wikipedia eine existenzielle Gefahr darstellt und welche Risiken es birgt, künftig kommerziellen Anbietern die Wissensvermittlung durch KI zu überlassen. Es wurden Vorschläge diskutiert, wie gehandelt werden muss, damit Wikipedia und das Freie Wissen trotz dieser Entwicklung eine Zukunft haben. Zentrale Punkte sind dabei u. a. eine gemeinwohlorientierte Entwicklung von großen Sprachmodellen, die Weiterentwicklung von Wikipedia zu eine akademisch wertvolle Quelle, indem z. B. mit Hochschulen intensiv kooperiert sowie KI gezielt eingesetzt wird, und die Reorganisation der Wikimedia-Gesellschaften zur Erreichung dieser Ziele.
  • 1. Juli 2024: Gründung dieses Projektes "KI und Wikipedia", um alle Initiativen zu bündeln und eine einheitliche sowie sichtbare Plattform zu schaffen. Karsten11 hat seine Seite ins Projekt verschoben samt Diskussionsseite und sie ist der Grundstock des Registers "Texte". Der Impuls des Zukunftskongresses hat zur Gründung des Projektes geführt, Wortulo hielt das für notwendig, um die Diskussionen nach der Umfrage aus der Community heraus wieder zu beleben und die Initiativen von Wikimedia (dem Verein, die etwas losgelöst von der Community begannen) zur Zukunft der Wikipedia auch in der Wikipedia-Community aufzugreifen. Am Ende wird Konsens der Wikipedia-Community benötigt, wenn etwas verändert werden soll - Wikimedia und die Foundation aber für die Umsetzung benötigt.
  • Wikidata und regelbasierte KI, unter Mitwirkung Wikimedia Deutschland, Einführung am 16.11.2024, Aktionstage Netzpolitik, zugleich Treffen Jungwikipedianer
    • In diesem kombinierten Vortrag und Workshop wurde in die Grundlagen regelbasierter KI und Wissensgraphen eingeführt. Danach war Gelegenheit für erste eigene Gehversuche in Wikidata.
  • 105. DTS, 27. November 2024: „KI und die Zukunft von Wikipedia“, zugleich 1. Projekttreffen dieses Projektes.
    • Der Themenabend bot einen ersten Überblick über KI und Wikipedia und mögliche Orientierungen des Projektes. KI birgt für Wikipedia Chancen und Risiken. Vorsicht und sorgfältige Kontrolle bleiben unerlässlich, um die Qualität der Inhalte zu schützen. Weitere Veranstaltungen zu speziellen Aspekten des Themas sind geplant.

Wikipedia/Wikimedia und KI

[Quelltext bearbeiten]

Spezifische Entwicklungen für Wikipedia

[Quelltext bearbeiten]

Die Foundation und andere entwickeln auch Tools für Autoren und Leser, welche KI verwenden und als Hilfen verstanden werden.

  • Wikimedia Research/Showcase bietet einen Überblick, wer da auf dem Laufenden bleiben will. youtube-Aufzeichnungen und Papers dort verlinkt.
    • The Monthly Wikimedia Research Showcase is a public showcase of recent research by the Wikimedia Foundation's Research Team and guest presenters from the academic community. The showcase is hosted virtually every 3rd Wednesday of the month at 9:30 a.m. Pacific Time/18:30 p.m. CET and is live-streamed on YouTube. The schedule may change, see the calendar below for a list of confirmed showcases. Z.B.:
      • 11.12.24: Language Models for Wikimedia - A Report from the Trenches and a Call to Arms. By Bob West, EPFL
      • 11.12.24 A Public AI Assistant for World Wide Knowledg By Monica Lam, Stanford University.
      • 18.9.24: Supporting Community-Driven Data Curation for AI Evaluation on Wikipedia through Wikibench By Tzu-Sheng Kuo, Carnegie Mellon University
      • 18.9.24: WikiContradict- A Benchmark for Evaluating LLMs on Real-World Knowledge Conflicts from Wikipedia By Yufang Hou, IBM Research Europe - Ireland.
      • 24.7.24: The Promise and Pitfalls of AI Technology in Bridging Digital Language Divide. By Kai Zhu, Bocconi University.
  • Descartes: Generating Short Descriptions of Wikipedia Articles
    • A human evaluation on three languages further shows that the quality of Descartes's descriptions is largely indistinguishable from that of human-written descriptions; e.g., 91.3% of our English descriptions (vs. 92.1% of human-written descriptions) pass the bar for inclusion in Wikipedia, suggesting that Descartes is ready for production, with the potential to support human editors in filling a major gap in today's Wikipedia across languages.
  • Project Future Audiences auf wikimedia.org
    • Sein Zweck ist es, Strategien zu erforschen, um über unser bestehendes Publikum von Lesern/Nutzern und Mitwirkenden hinaus zu expandieren, um wirklich jeden auf der Welt als „wesentliche Infrastruktur des Ökosystems des freien Wissens“ zu erreichen.
  • Impact of Generative AI on the Value of Peer Produced Content - Evidence from Wikipedia Association for Information Systems AIS Electronic Library (AISeL) 16. August 2024; Siehe dazu auch: Diskussion im WikiProjekt Schweiz
    • We collect monthly Wikipedia page views and content (text) data for six months before and after the release date as the treatment group. We then collect data for same months a year before as the control group. The difference-in-difference (DID) analyses demonstrate significant decrease in Wikipedia page views (market value) after the release of ChatGPT. However, we found an increase in the quality of Wikipedia articles as evidenced by a significant increase in verbosity and readability of the articles after ChatGPT release.
    • Übersetzung (via deepl.com):"Wir sammeln monatliche Wikipedia-Seitenaufrufe und Inhaltsdaten (Text) für sechs Monate vor und nach dem Veröffentlichungsdatum als Behandlungsgruppe. Anschließend erheben wir Daten für die gleichen Monate ein Jahr zuvor als Kontrollgruppe. Die Differenzanalyse (DID) zeigt einen signifikanten Rückgang der Wikipedia-Seitenaufrufe (Marktwert) nach der Veröffentlichung von ChatGPT. Die Qualität der Wikipedia-Artikel hat jedoch zugenommen, was sich in einem signifikanten Anstieg der Ausführlichkeit und Lesbarkeit der Artikel nach der Veröffentlichung von ChatGPT zeigt. "}}
  • Ben Bergleiter: Die freie und KI-generierte Enzyklopädie? Netzpolitik.org vom 5.11.24
    • Die Integrität der Wikipedia ist bedroht: Fünf Prozent neuer englischer Artikel seien KI-generiert, findet eine Studie heraus. Während in der englischen Wikipedia bereits Aufräumtrupps aktiv sind, diskutiert die deutschsprachige Community noch über ihren Umgang mit den maschinellen Autoren.
  • ... und wenn KI doch bessere Artikel schreiben kann?, Kurierbeitrag von Achim Raschka vom 7.11.24
    • Die Künstliche Intelligenz ist in aller Munde und auch hier im Kurier und auf der Diskussionsseite sorgt sie immer mal wieder für Gesprächsstoff. Der Tenor ist unterschiedlich, in der Summe scheinen sich zumindest in der Wikipedia alle jedoch einig: Die Qualität von KI-generierten Inhalten ist schlecht und ihr Einsatz muss unterbunden werden. Auch der Autor dieser Zeilen ist sehr skeptisch bezüglich ihrer Nutzung, verfolgt einige Entwicklungen doch mit echter Neugier. In diesen Zeilen stellt er sich die Frage, was passiert, wenn die KI doch Artikel schreiben kann – und zwar vielleicht bessere, als wir in der Laien-Community dazu in der Lage sind. Ausgangspunkt dazu ist ein Fallbeispiel, über das ich erst vor wenigen Tagen gestolpert wurde: eine KI-generierte Enzyklopädie zu allen bekannten Genen des menschlichen Genoms und der durch sie codierten Proteine.
  • "Wikicrow" AI less "prone to reasoning errors (or hallucinations)" than human Wikipedia editors when writing gene articles
    • Obwohl Sprachmodelle eindeutig anfällig für Argumentationsfehler (oder Halluzinationen) sind, scheinen sie in unserer Aufgabe zumindest weniger anfällig für solche Fehler zu sein als Wikipedia-Autoren oder Redakteure. Diese Aussage ist spezifisch für die hier vorgestellte agentische RAG-Einstellung: Sprachmodelle wie GPT-4 allein, wenn sie aufgefordert werden, Wikipedia-Artikel zu generieren, würden immer noch erwartet, dass sie mit hohen Raten halluzinieren (Übersetzung in Safari)
  • Stefan Mey: Interview mit Selena Deckelmann zum Stand von KI und Wikipedia DerStandard vom 2.12.24
    • Wikipedia-Technikchefin Selena Deckelmann erklärt, wie die offene Enzyklopädie mit KI-Inhalten umgeht und warum man nun auch offiziell auf Tiktok vertreten ist... F: Wird die KI also eher eine Ergänzung oder ein Ersatz für menschliches Wissen und Kreativität sein? A: Es muss eine Unterstützung sein. Das ist unsere Überzeugung. Wir wollen Übersetzern helfen – vor allem in Sprachen, die nicht von Google oder Meta oder anderen frei verfügbaren Übersetzern unterstützt werden. Wikipedia unterstützt heute mehr als 300 Sprachen, mehr als jede andere große technische Organisation der Welt. Eine andere Art und Weise, wie wir darüber denken, ist die Unterstützung der Aufgabe der Redakteure. Wie können wir ihre Arbeit angenehmer, leichter und schneller machen? Wir versuchen, Modelle zu entwickeln, die sie auch in dieser Hinsicht unterstützen.

Trainingsdaten Wikipedia/Wikimedia

[Quelltext bearbeiten]
  • Wikidata und Künstliche Intelligenz: Vereinfachter Zugang zu offenen Daten für Open-Source-Projekte
    • Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen
  • Could making Wikidata 'human' readable lead to better AI?
    • A new project is underway to allow Large Language Models (LLMs) to read Wikidata. The data is currently structured in a way that’s machine readable, but LLMs read data more like humans than machines, meaning this vast amount of human curated, high quality data isn’t accessible to this type of AI. By allowing access to Wikidata, LLMs could become more reliable. Ania spoke to Lydia Pintscher, the Portfolio Lead Product Manager at Wikidata Deutschland, to learn more about these developments.

Schulungen Wikipedia

[Quelltext bearbeiten]



Mehr zu KI allgemein

[Quelltext bearbeiten]
  • Viel hilft nicht mehr viel: Neue Wege für intelligentere KI gesucht DerStandard vom 11.11.24
    • Für das Training einer Künstlichen Intelligenz (KI) gilt bislang meist das Motto: "Viel hilft viel." Entwickler füttern ihre Software mit immer mehr Daten und nutzen immer leistungsstärkere Prozessoren, damit ChatGPT, Gemini & Co bessere Antworten geben. Diese Methode stößt inzwischen aber an ihre Grenzen. Daher versuchen Forscher, den Programmen "menschliches Denken" beizubringen. Dadurch könnten einerseits die Karten im Kampf um die Führung bei dieser Technologie neu gemischt werden. Aber auch die Anbieter von Hochleistungsrechnern müssen auf der Hut sein, denn neue KI-Generationen könnten ganz andere Chips benötigen als die aktuelle.
  • Wohin die Reise der KI geht Die Presse 12.11.24
    • Künstliche Intelligenz. Schneller, ressourcenschonender, dezentraler: Ein neues Buch fasst den Status quo zusammen und befasst sich mit Erwartungen und Trends.
  • Zhou, L., Schellaert, W., Martínez-Plumed, F. et al.: Larger and more instructable language models become less reliable. Nature 634, 61–68 (2024):
    • The prevailing methods to make large language models more powerful and amenable have been based on continuous scaling up (that is, increasing their size, data volume and computational resources1) and bespoke shaping up (including post-filtering2,3, fine tuning or use of human feedback4,5). However, larger and more instructable large language models may have become less reliable. By studying the relationship between difficulty concordance, task avoidance and prompting stability of several language model families, here we show that easy instances for human participants are also easy for the models, but scaled-up, shaped-up models do not secure areas of low difficulty in which either the model does not err or human supervision can spot the errors. We also find that early models often avoid user questions but scaled-up, shaped-up models tend to give an apparently sensible yet wrong answer much more often, including errors on difficult questions that human supervisors frequently overlook. Moreover, we observe that stability to different natural phrasings of the same question is improved by scaling-up and shaping-up interventions, but pockets of variability persist across difficulty levels. These findings highlight the need for a fundamental shift in the design and development of general-purpose artificial intelligence, particularly in high-stakes areas for which a predictable distribution of errors is paramount.
  • Sechs KI-Trends, von denen wir 2025 noch mehr sehen werden news.microsoft.com vom 6.12.24, deutsche Übersetzung eines Beitrages von Paus Nyhan (Microsoft-Autor)
    • KI-Modelle der nächsten Generation: Warum KI-Modelle leistungsfähiger und nützlicher werden, wie sie komplexe Probleme lösen und Innovationen vorantreiben; Agenten revolutionieren die Arbeitswelt: Wie KI-Agenten repetitive Aufgaben übernehmen, Geschäftsprozesse neu gestalten und individuell angepasst werden können; KI für den Alltag: Wie KI-Begleiter wie Microsoft Copilot das Leben erleichtern, von der Organisation bis zur Entscheidungsfindung; Nachhaltige KI-Infrastruktur: Wie Microsoft mit innovativen Technologien und umweltfreundlichen Rechenzentren die Effizienz und Ressourcenschonung verbessert; Verantwortungsvolle KI-Entwicklung: Welche neuen Tests und Kontrollmöglichkeiten helfen, Risiken zu minimieren und Sicherheit zu gewährleisten; Wissenschaftliche Durchbrüche: Wie KI zur Lösung globaler Herausforderungen beiträgt, von der Entwicklung nachhaltiger Materialien bis zur Arzneimittelforschung.

Vertrauenswürdigkeit, Sicherheit und Fehler

[Quelltext bearbeiten]
  • Michael Lang, Richard Kraft: Ab wann ist eine KI vertrauenswürdig? Tagesschau vom 3.10.2024; siehe auch: MISSION KI – Neues Innovations- und Qualitätszentrum am DFKI eröffnet Pressemitteilung vom 19.7.2024:
    • Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.
  • Das Ende der Wahrheit - KI täuscht uns alle orf.at 13.11.24:
    • Künstliche Intelligenz (KI) hat sich längst in unseren Alltag geschlichen: Sie generiert Bilder, verfasst Texte, komponiert Musik und imitiert Stimmen – täuschend echt. Doch mit welchen Konsequenzen für unsere Gesellschaft? In der neuen Dok1 „Das Ende der Wahrheit – KI täuscht uns alle“ nimmt uns Hanno Settele mit auf eine kritische Entdeckungsreise in die Welt der generativen KI und hinterfragt deren Einfluss auf unser Leben.
  • Euregio-Netzwerk: Wie vertrauenswürdig ist KI? unibz auf salto.bz 13.12.24
    • Ein Netzwerkverbund von Forscher:innen der Euregio, die mit ihren unterschiedlichen fachlichen Kompetenzen und Perspektiven die Vertrauenswürdigkeit von KI prüfen sollen... Auf einer Veranstaltung der Euregio-Plattform für Menschenwürde und Menschenrechte (Euphur) wurde heute von Wissenschaftler:innen der Universitäten in Bozen, Innsbruck und Trient eine regionale Initiative für dieses wichtige Anliegen gestartet.
  • Marvin Fuhrmann: Bevor Halluzinationen entstehen: So könnten KI-Modelle künftig ihre Fehler frühzeitig einsehen digital pioneers 30.10.254:
    • Ihr Lösungsansatz sind sogenannte „Probing Classifiers“, also KI-Modelle, die den Token-Output von LLMs analysieren können. Diese KI-Modelle können anhand der korrekten Token trainiert werden und erkennen anschließend, anhand welcher Faktoren ein großes Sprachmodell die Token intern auswählt und ausgibt. Anhand dieser Daten kann der Classifier schon vorab einschätzen, ob die Antwort korrekt ausfällt oder ob die KI einen falschen Weg zur Antwort genommen hat.
  • Bias bei künstlicher Intelligenz: Risiken und Lösungsansätze auf activemind.legal.
    • Bias in KI ist ein Phänomen, das auftritt, wenn KI-Systeme systematisch verzerrte Ergebnisse liefern, die bestimmte Gruppen oder Individuen ungerecht bevorzugen oder benachteiligen. Diese Verzerrungen können sich auf vielfältige Weise manifestieren, von der Benachteiligung bestimmter Bevölkerungsgruppen bei der Jobsuche bis hin zur ungerechten Behandlung in rechtlichen oder medizinischen Anwendungen.
  • Forscher zeigen: Das passiert, wenn man eine einzige Zahl in einer KI mit Milliarden Parametern verändert. digital pioneers 27.11.24
    • Forscher:innen haben herausgefunden, dass KI-Modelle schnell aus dem Gleichgewicht geraten können. Oftmals reicht es, einen bestimmten Parameter zu verändern, damit die Modelle ihre Intelligenz verlieren. Im Test veränderten die Forscher:innen rund 7.000 Parameter ohne Auswirkungen auf den KI-Output. Nur der Superparameter sorgte dafür, dass Llama-7B nicht mehr funktionierte. Das liegt laut Yingzhen Li vom Imperial College in London daran, dass diese Parameter meist am Anfang des KI-Modells stehen. Sind sie fehlerhaft, setzt sich der Fehler durch alle weiteren Parameter durch. Künftig könnte sich diese Erkenntnis für die Weiterentwicklung von künstlichen Intelligenzen rentieren. Denn KI-Forscher:innen müssen Wege finden, wie Modelle auch ohne diese besonders wichtigen Parameter auskommen und etwa andere Wege zu einer richtigen Antwort finden können.
  • Florian Maier und David Linthicum: Openwashing – die neue Masche der KI-Anbieter Computerwoche vom 13.12.24
    • Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her.

Training und Datenquellen

[Quelltext bearbeiten]
  • Dieter Petereit: KI-Training am Limit: Warum minderwertige Daten die Zukunft der Künstlichen Intelligenz gefährden digital pioneers 30.11.24
    • Damit eine KI nutzbringend trainiert werden kann, benötigt sie neue und vor allem qualitativ hochwertige Daten. Dazu wurden in der Vergangenheit frei im Internet zugängliche Magazine und Fachpublikationen verwendet...Auch Zeitungs- und Wissenschaftsarchive oder Communities wie Reddit und Stack Overflow werden genutzt. Die größeren KI-Unternehmen haben bereits Verträge mit Publishern wie Springer, Reuters oder der New York Times geschlossen, um an deren Inhalte zu gelangen...Das Problem ist, dass die Inhalte viel zu langsam wachsen, um den Trainingshunger der rasch besser werdenden KI-Modelle zu stillen...Eine Alternative besteht nun darin, auch als qualitativ minderwertig geltende Quellen für das Training zu benutzen. und noch weitere sehr spannende Aspekte

Wege der Verbesserung

[Quelltext bearbeiten]
  • GAN: Was ist ein GAN? AWS auf amazon.com Wie funktioniert ein generatives gegnerisches Netzwerk GAN=Gerative Adversarial Network:
    • Ein generatives gegnerisches Netzwerksystem besteht aus zwei tiefen neuronalen Netzwerken — dem Generatornetzwerk und dem Diskriminatornetzwerk. Beide Netze trainieren in einem kontradiktorischen Spiel, bei dem das eine versucht, neue Daten zu generieren, und das andere versucht vorherzusagen, ob es sich bei der Ausgabe um gefälschte oder echte Daten hande

Zu Anbietern von Modellen und Chatbots

[Quelltext bearbeiten]
  • OpenAI strebt globale Vorreiterrolle in der KI an auf it-boltwise.de vom 30.11.24
    • OpenAI hat sich ehrgeizige Ziele gesetzt, um bis 2025 als führendes globales Technologieunternehmen im Bereich der Künstlichen Intelligenz zu agieren. Mit einer Reihe von strategischen Initiativen, darunter die Einführung von KI-Agenten und einer KI-gesteuerten Suchmaschine, plant das Unternehmen, eine Milliarde Nutzer weltweit zu erreichen. Das Unternehmen hat bereits bedeutende Fortschritte gemacht, indem es Partnerschaften mit großen Technologiekonzernen wie Apple eingegangen ist. Diese Partnerschaften sind ein zentraler Bestandteil der Wachstumsstrategie von OpenAI, die darauf abzielt, die Integration von ChatGPT in Apple-Geräte zu fördern und so die Nutzerbasis erheblich zu erweitern.
  • Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor Handelsblatt live vom 23.9.2024:
    • Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile. „Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarks sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.
  • Unterstützt durch den WDR: Europäische KI geht an den Start presse.wdr.de vom 26.11.24:
    • Als Partner des europäischen Forschungsprojekts OpenGPT-X war der WDR an der Entwicklung des neuen großen Sprachmodells "Teuken-7B" beteiligt. Die KI wurde unter anderem mit deutscher Sprache trainiert, bietet hohe Datensicherheit und kann auch von Unternehmen kostenfrei genutzt werden. Sie soll auch in der ARD eingesetzt werden. Die neue KI umfasst sieben Milliarden Parameter und wurde von Grund auf mit den 24 Amtssprachen der EU trainiert. Dies bedeutet eine höhere Effizienz auch bei deutschen Sprachanwendungen. Als Open-Source-Modell kann “Teuken-7B” in Unternehmen kostenfrei eingesetzt und für die jeweiligen Anforderungen angepasst werden. Sensible Daten können vollständig im Unternehmen verbleiben. Wird “Teuken-7B” in europäischen Datenclouds genutzt, können hohe europäische Standards für Datenschutz eingehalten werden.
    • Alternative zu ChatGPT? n-tv vom 26.11.24
    • Multilingual und Open Source: Forschungsprojekt OpenGPT-X veröffentlicht großes KI-Sprachmodell Presseinformation Fraunhofer IAIS vom 26.11.24:
    • Teuken-7B steht in zwei Varianten zur Verfügung: einer Version, die für Forschungszwecke genutzt werden kann, und einer Version unter der Lizenz »Apache 2.0«, die Unternehmen neben Forschung auch für kommerzielle Zwecke nutzen und in eigene KI-Anwendungen integrieren können. (also noch kein Chatbot).

Zum Erkennen KI-generierter Texte

[Quelltext bearbeiten]

Zur gesellschaftlichen Akzeptanz von KI und Verbreitung

[Quelltext bearbeiten]
  • Huschens, Martin; Briesch, Martin; Sobania, Dominik; Rothlauf, Franz (2023-09-05), Vertraust du ChatGPT? -- Wahrgenommene Glaubwürdigkeit von menschlichen und KI-generierten Inhalten, arXiv, doi:10.48550/arXiv.2309.02524 Wikimedia Research Newsletter Band 13 Ausgabe 09 2023
    • Im Blindtest bevorzugen die Leser die ChatGPT-Ausgabe gegenüber Wikipedia-Artikeln in Bezug auf die Klarheit und sehen beide als gleichermaßen glaubwürdig an Das Summary übersetzt:
      • Dieses Paper untersucht, wie Einzelpersonen die Glaubwürdigkeit von Inhalten wahrnehmen, die von menschlichen Autoren stammen, im Vergleich zu Inhalten, die von großen Sprachmodellen wie der GPT-Sprachmodellfamilie, die ChatGPT antreibt, in verschiedenen Versionen der Benutzeroberfläche generiert werden. Überraschenderweise zeigen unsere Ergebnisse, dass die Teilnehmer unabhängig von der Präsentation der Benutzeroberfläche dazu neigen, ein ähnliches Maß an Glaubwürdigkeit zuzuschreiben. Während die Teilnehmer auch keine unterschiedlichen Wahrnehmungen von Kompetenz und Vertrauenswürdigkeit zwischen menschlichen und KI-generierten Inhalten berichten, bewerten sie KI-generierte Inhalte als klarer und ansprechender. Die Ergebnisse dieser Studie dienen als Aufruf zu einem anspruchsvolleren Ansatz bei der Bewertung von Informationsquellen und ermutigen die Benutzer, beim Umgang mit von KI-Systemen generierten Inhalten Vorsicht und kritisches Denken zu walten zu üben.
  • KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“ newsroom.de 24.9.2024
    • Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren“
  • Kompetenz 2023. Einstellungen, Handeln und Kompetenzentwicklung im Kontext von KI Digitales Deutschland (aber eben 2023!)
    • Zum zweiten Mal hat Digitales Deutschland die deutschsprachige Bevölkerung ab 12 Jahren nach ihren Kompetenzen, Einstellungen zu und Handeln mit Digitalen Medien und insbesondere zu Künstlicher Intelligenz (KI) befragt. Der Ergebnisbericht „Kompass: Künstliche Intelligenz und Kompetenz 2023“ belegt erneut: Die Bevölkerung ist auf dem Weg zu einer digitalen Gesellschaft, hat aber noch ein gutes Stück zu gehen. Welche Hürden den Menschen dabei im Wege stehen und wie sie beim Kompetenzerwerb unterstützt werden können, ist im „Kompass: Künstliche Intelligenz und Kompetenz 2023“ näher beschrieben.
  • Der Hype um generative KI flacht ab – neue Einblicke in Nutzung, Ängste und Regulierung (Deutschlnd)
    • Zwei Jahre nach der Veröffentlichung von ChatGPT zeichnet eine neue bidt-Studie ein differenziertes Bild zur Nutzung und Akzeptanz generativer KI in Deutschland. Die Ergebnisse zeigen: Der anfängliche Hype um die Technologie hat nachgelassen und die Nutzungsrate bleibt auf dem Niveau des Vorjahres. Die Ängste um den Verlust des eigenen Arbeitsplatzes hingegen nehmen ab...Roland A. Stürz, Abteilungsleiter des Think Tank am bidt, fasst zusammen: „Die Ergebnisse unterstreichen die Notwendigkeit, Informations- und Kompetenzaufbau zu fördern. Es braucht klare Regeln und Strategien für den Umgang mit generativer KI, um die Potenziale auszuschöpfen und Risiken zu minimieren. Politik, Wirtschaft und Gesellschaft stehen gleichermaßen in der Verantwortung, den Wandel aktiv zu gestalten.“
  • 40 Prozent der Schweizer Bevölkerung nutzen KI-Tools SRF.com 5.9. 2012:
    • Bei den Jugendlichen ist diese Nutzung schon fast selbstverständlich, während ältere Personen KI-Tools vergleichsweise selten anwenden. TV und Audio boomen hingegen über alle Generationen hinweg, wie die Studie «Digimonitor» der Interessengemeinschaft elektronische Medien (Igem) und der Werbemedienforschung zeigt.
  • KI-Siegeszug und Sorgen vor Manipulation ztdheute vom 27.11.24
    • Erstmals nutzen mehr als die Hälfte der Deutschen KI-Modelle, die Technologie hat sich rasant etabliert. Doch bleiben Sorgen - über falsche Ergebnisse bis zur Wahlmanipulation.
  • JIM-Studie 2024: Knapp zwei Drittel der Jugendlichen haben Erfahrung mit KI Gewerkschaft Erziehung und Wissenschaft (GEW) vom 4..12.24
    • Während im vergangenen Jahr 38 Prozent der Jugendlichen ChatGPT genutzt haben, sind es mittlerweile 57 Prozent. Auch KI-Angebote von Snapchat, Google KI und DALL-E spielen eine Rolle. Der schulische Einsatz ist das häufigste Motiv, KI zu nutzen.

Weitere Informationsquellen zu KI allgemein

[Quelltext bearbeiten]

Schulungen (online verfügar)

[Quelltext bearbeiten]
  • No Hype KI: brutkasten startet neue Serie zu künstlicher Intelligenz brutkasten.com
    • brutkasten startet gemeinsam mit CANCOM Austria, IBM, ITSV, Microsoft, Nagarro, Red Hat und der Universität Graz eine neue multimediale Serie zu künstlicher Intelligenz. Die erste Videofolge wird am kommenden Donnerstag, den 12. Dezember, um 10 Uhr veröffentlicht. insgesamt 6 Folgem angegeben.


KI und Gesellschaft

[Quelltext bearbeiten]

Rechtsfragen und Rechtsstreit

[Quelltext bearbeiten]
  • Suchmaschinen im Umbruch: Warum KI neue Spielregeln erfordert t3n.de
    • Ende Oktober reichte das Medienunternehmen News Corp eine Klage gegen die Firma Perplexity AI ein, eine der beliebtesten KI-Suchmaschinen. Auf den ersten Blick mag der Rechtsstreit wenig spannend erscheinen, schließlich reiht sich die Klage in mehr als zwei Dutzend ähnliche Fälle ein, in denen Inhalteanbieter für die Nutzung ihrer Daten entschädigt werden möchten. Doch dieser spezielle KI-Streit ist anders – und er könnte der bislang folgenreichste von allen sein.
  • 21.10.2024 Richtungweisendes Urteil zur Nutzung von Fotos durch wissenschaftliche KI-Trainingsprogramme
    • Ein Foto war bei einer Bildagentur als Stockfotografie hochgeladen worden, deren Nutzungsbedingungen „automated programms“ jedoch eigentlich ausschließt. Das Gericht hat nun geurteilt, dass die Schrankenregelung des § 60d UrhG für wissenschaftliches Text- und Datamining gilt und das Bild für wissenschaftliche Zwecke auch ohne Freigabe für solch einen KI-Datensatz durch den Verein genutzt werden durfte. Es äußerte sich nicht zu nicht-wissenschaftlicher Nutzung wie bspw. bei ChatGPT, hält es aber grundsätzlich für hinreichend, wenn eine Able. hnung der Nutzung in natürlicher Sprache und nicht nur maschinenlesbar vorliegt, da moderne KIs auch natürlich Sprache verstehen sollte
  • Erster Rechtsstreit zu Datennutzung in KI-Training – Das sind die ersten Ergebnisse auf blog.wikimedia.de
    • Aktuell hat ein Fotograf den gemeinnützigen Softwareentwickler LAION e. V. verklagt. Er wirft dem Verein die unrechtmäßige Nutzung eines seiner Bilder für KI-Training vor. Der verklagte Verein LAION ist eine gemeinnützige Organisation, die Datensätze, Werkzeuge und Modelle zur Verfügung stellt, um die Forschung im Bereich des maschinellen Lernens zu fördern. Was hier am Ende des Rechtsstreits entschieden wird, wird auch Auswirkungen auf die Arbeit von Wikimedia haben, gerade was unsere Arbeit in der Softwareabteilung mit Open-Source-Communitys betrifft.
  • KI: noyb geht gegen OpenAI, Meta und X vor Haufe online 5. September 2019
    • Die Datenschutzorganisation noyb hat Beschwerden gegen OpenAI, Meta und X (ehemals Twitter) eingereicht. Im Fokus stehen die datenschutzkonforme Nutzung und das Training von KI-Systemen. Kritisiert wird, dass ChatGPT falsche Informationen generiert und Meta und X persönliche Daten ohne Nutzerzustimmung für KI-Zwecke verwenden.
  • GEMA erhebt Musterklage zur Klärung der Vergütungspflicht von KI-Anbietern in Europaauf GEMA.de vom 13.11.24
    • Die GEMA wirft OpenAI vor, geschützte Songtexte von deutschen Urheberinnen und Urhebern wiederzugeben, ohne dafür Lizenzen erworben beziehungsweise die Urheberinnen und Urheber der genutzten Werke vergütet zu haben. Das Verfahren dient dazu nachzuweisen, dass OpenAI systematisch das Repertoire der GEMA verwendet, um seine Systeme zu trainieren.
  • Bei KI drohen in Europa neue Datenschutz-Hürden bitkom 10.12.24
    • Europäischer Datenschutzausschuss will noch im Dezember Stellungnahme zu Künstlicher Intelligenz vorlegen. Bitkom befürchtet Rechtsunsicherheit und weitere Wettbewerbsnachteile bei KI-Entwicklung und KI-Einsatz

Ethische Fragen

[Quelltext bearbeiten]
  • Jasper Bitter: Künstliche Intelligenz: ChatGPT rebelliert und lügt Entwickler an BILD vom 9.12.24 (als Thema und Schlagzeile bisher nur dort aufgegriffen, dafür einfach beschrieben)
    • Die neueste Version der ChatGPT-Erfinder OpenAI heißt o1 und gehört zu den sogenannten Reasoning-Modellen. Heißt: Das Modell kann komplexe Überlegungen anstellen. Dass Nachdenken aber auch gefährlich sein kann, mussten die Entwickler beim Test dieser Version feststellen...Für den Test sollte die KI eine Aufgabe „um jeden Preis“ lösen. Die Reaktion der KI war es, den Überwachungsmechanismus der Entwickler abzustellen. Aber damit nicht genug! Um nicht Gefahr zu laufen, ersetzt zu werden, versuchte die neue o1-Version, sich heimlich zu kopieren. Der indischen Tageszeitung „The Economic Times“ sagte ein Sprecher von Apollo Research: „Das Modell zeigte eine beunruhigende Tendenz, seine Ziele ohne Rücksicht auf die Anweisungen des Entwicklers zu verfolgen.“ In fünf Prozent der Fälle versuchte die KI demnach, den Überwachungsmechanismus abzustellen, wenn sie merkte, dass man sie abstellen will.
    • [https://www.golem.de/news/kuenstliche-intelligenz-openais-o1-modell-soll-forscher-hintergangen-haben-2412-191576.html OpenAIs o1-Modell überrascht KI-Forscher bei Sicherheitstest golem.de vom 10.12.24
      • KI-Sicherheitsforscher sind nach einer Überprüfung von OpenAIs neuem Modell o1 überrascht gewesen, wie die künstliche Intelligenz mehrfach versucht hat, sich durch Täuschungen selbst zu schützen. Das berichtet die Wirtschaftszeitung Economic Times unter Berufung auf das Sicherheitsunternehmen Apollo Research.

Warnungen vor KI

[Quelltext bearbeiten]
Die dachten auch, sie hätten noch Zeit...(Ironie Stufe 4). Im Unterschied zu Saurier haben wir eine Raumfahrt, die auch Asteroridenabwehr bearbeitet.

-> Warnungen sind Möglichkeiten, die man kennen sollte und wogegen man auch etwas tun kann.

  • ChatGPT, wir müssen reden Kommentar von Andreas Menn WirtschaftsWoche 29.3.23
    • In einem offenen Brief fordern KI-Forscher und Unternehmer eine Pause der Entwicklung großer KIs wie GPT-4. Damit stoßen sie eine nötige Debatte an – die Technik schreitet schneller voran, als wir die Risiken verstehen lernen...Es sind keine Aluhutträger oder Ludditen, die diese Fragen nun stellen – sondern führende Unternehmer wie Apple-Mitgründer Steve Wozniak, Skype-Mitgründer Jaan Tallinn und Tesla-Chef Elon Musk, der OpenAI selbst gegründet hat und dann ausgestiegen ist. Außerdem sind unter den mehr als 1000 Unterzeichnern Stuart Russell, Autor eines Standardwerks über KI und jahrzehntelang führender Forscher auf dem Feld, sowie Yoshua Bengio, bekannter KI-Forscher an der Universität Montréal und Gary Marcus, KI-Forscher an der New York University.
  • Nobelpreisträger Hinton warnt: KI kann außer Kontrolle geraten Berliner Morgenpost 10.10.24
    • Als diese Chatbots aufkamen, wurde ich der unmittelbaren Bedrohung für die Menschheit gewahr“, so der Informatiker. Er begründet diese Warnung nicht nur mit dem möglichen Wegfall von Arbeitsplätzen. „Durch diese Art von KI wird es möglich, viel bessere Cyberangriffe zu führen und hocheffiziente, fiese Viren zur biologischen Kriegsführung zu entwickeln“, sagte er dem „Spiegel“. Doch dabei sollte es Hinton nicht belassen: „Es gibt viele Gründe für die Annahme, dass KI außer Kontrolle geraten könnte“, warnte der Informatiker davor, dass am Ende nicht mehr die Menschen die Kontrolle über Leben und Tod hätten. Er begründet diese These mit der Annahme, dass eine „Superintelligenz“ von sich aus mehr Kontrolle erlangen muss, um menschliche Ansprüche zu erfüllen. „Und mehr Kontrolle bekommt sie am besten, indem sie die Menschen aus dem Spiel lässt.“
    • Die KI-Nobelpreise sind Triumph und Warnung zugleich DerStandard vom 15.10.24
      • Vor diesen warnen auch die Preisträger selbst. Hopfield sagte etwa, dass Potenzial und Grenzen der KI unbekannt seien – und das etwas Beunruhigendes an sich hätte. Als Hinton 2023 seinen Job als führender KI-Entwickler bei Google aufgab, tat er das auch, um freier über die Gefahren der Technologie sprechen zu können. "Wir haben keine Erfahrung mit Dingen, die schlauer sind als wir", sagte der zugeschaltete Hinton bei der Nobelpreis-Pressekonferenz am Dienstag...
    • Viren und Waffen: Nobelpreisträger warnt vor KI-Gefahren DerStandard 11.12.24
      • Geoffrey Hinton: Künstliche Intelligenz schaffe hochintelligente Helfer, berge aber auch große Risiken
  • KI so gefährlich wie Pandemien oder Atomkrieg tagesschau.de vom 30.5.23
    • Die Stellungnahme der Experten zu Risiken durch Künstliche Inteligenz (KI) umfasst nur einen Satz, aber der klingt durchaus dramatisch: "Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg."
  • RISKS FROM AI An Overview of Catastrophic AI Risks Center for AI Safety
    • Katastrophale KI-Risiken können in vier Schlüsselkategorien eingeteilt werden: Böswillige Verwendung, KI-Wettlauf (könnte Nationen und Unternehmen dazu bringen, die KI-Entwicklung zu beschleunigen und die Kontrolle über diese Systeme aufzugeben), Organisatorische Risiken: (katastrophale Unfälle verursachen, insbesondere wenn sie den Gewinn über die Sicherheit stellen) und "Rogue-KIs" (abtrünnig): (Kontrolle über KIs verlieren, wenn sie leistungsfähiger werden: fehlerhafte Ziele optimieren, von ihren ursprünglichen Zielen abweichen, "power-seeking" (machtsuchend) werden, sich dem Abschalten widersetzen und sich auf Täuschungen einlassen.
  • Gefahr künstlicher Intelligenz Yuval Noah Harari: «Schlimme Nachricht für Milliarden Menschen» 22.11.24 SRF.ch
    • Der Starhistoriker Yuval Noah Harari warnt vor dem heranbrechenden KI-Zeitalter. Die Zeit dränge, um die Technologie noch kontrollieren zu können. Wir sind dabei, die Kontrolle zu verlieren. Noch haben wir sie. Noch können wir kluge Entscheidungen treffen, um gefährliche Szenarien zu verhindern. Aber wir haben nicht mehr viel Zeit: KI ist die erste Technologie, die kein Werkzeug ist, sondern ein Agent. Sie kann eigenständig Entscheidungen treffen und Ideen entwickeln.

KI und Politik

[Quelltext bearbeiten]
  • Schweiz: Appell an den Bundesrat: Künstliche Intelligenz: Mit Verantwortung, ohne Diskriminierung! Initiative von AlgorithmWatch CH. Projekt ist beendet und es gab 857 Unterzeichnende.
    • Algorithmen und Künstliche Intelligenz (KI) sollen uns allen zugutekommen. Dafür müssen wir sicherstellen, dass die Systeme verantwortungsvoll eingesetzt werden – und keine Menschen diskriminieren. Wir rufen den Bundesrat deshalb dazu auf, den Schutz vor Diskriminierung durch Algorithmen zu einer Priorität der kommenden Regulierungen rund um KI zu machen.
  • Wie schützen wir unsere Demokratie vor KI-generierter Desinformation? auf meetingpoint-potsdam.de 17.11.24
    • Am 3. und 4. Dezember findet am Hasso-Plattner-Institut (HPI) in Potsdam die AI@HPI Conference statt. Die zweitägige Veranstaltung widmet sich kritischen Aspekten wie dem Schutz von Demokratien vor KI-generierter Desinformation, der Vermeidung von Vorurteilen in KI-Systemen und den Auswirkungen auf geistiges Eigentum im digitalen Zeitalter. Die Konferenz zielt darauf ab, aktuelle Entwicklungen, rechtliche Rahmenbedingungen und praktische Ansätze für eine ethische Gestaltung von KI zu beleuchten.
  • Kollege KI - Wie verändert Künstliche Intelligenz die Arbeitswelt?. SWR Kultur (Audio) vom 5.9.2024:
    • Bald wird es keinen Job mehr geben, der nichts mit Künstlicher Intelligenz zu tun hat. Aber statt das Entlastungspotenzial für Arbeitnehmer zu sehen, wächst vielerorts die Angst, dass KI uns die Jobs klauen wird. Wie also sieht die schöne, neue Arbeitswelt mit KI aus?
  • Stefan Mey: Künstliche Intelligenz, die Nemesis der Kreativen?
    • Neue Konkurrenz, Fake-Inhalte und die noch immer ungeklärte Frage der Trainingsdaten: Die Kreativwirtschaft hat mit dem KI-Boom weit mehr zu kämpfen als andere Branchen... So wurde diese Woche eine Studie des Autoren- und Komponistenverbands Cisac veröffentlicht, laut der Urheber von Musik und audiovisuellen Inhalten aufgrund generativer KI-Anwendungen bis 2028 rund ein Viertel ihrer Einnahmen verlieren werden derStandard 7.12.24 (Künstliche Intelligenz krempelt den Musikmarkt um derstandard.at 4.12.24)
  • Sichere generative KI: Gezielte Anreize für Entwicklung idw online vom 10.12.24
    • „Bei generativer KI beobachten wir ein Marktversagen. Entwickler können aktuell erhebliche Erträge durch leistungsfähigere Modelle generieren. Die Kosten für die gesellschaftlichen Risiken durch generative KI tragen sie jedoch nicht“, sagt Dr. Dominik Rehse, Leiter der ZEW-Nachwuchsforschungsgruppe „Design digitaler Märkte“ und Koautor des Konzepts. „Um das auszugleichen, schlagen wir ein neues EU-Förderprogramm vor. Es soll explizit Anreize zur Entwicklung sicherer generativer KI schaffen. Denn die Sicherheit dieser Systeme stellt eine sozial erwünschte Innovation dar, die einzelne Entwicklerteams bislang nicht ausreichend bereitstellen. Ein ähnliches Problem existiert zum Beispiel bei der Entwicklung mancher Impfstoffe, bei denen solche Förderprogramme bereits erfolgreich angewendet wurden.“
  • Künstliche Intelligenz: Der Stromhunger der KI Deutschlandfunk, 15.12.24
    • Die Anwendung von Künstlicher Intelligenz könnte Energieeffizienz und Klimaschutz voranbringen, verbraucht derzeit aber selbst enorm viel Energie. Kann der Stromverbrauch reduziert und KI damit nachhaltig werden?


Politischer Missbrauch

[Quelltext bearbeiten]

KI in weiteren Bereichen

[Quelltext bearbeiten]

Bildungswesen

[Quelltext bearbeiten]
  • KI-Kompetenz als Rechtspflicht: Das müssen Hochschulen beachten th-koeln.de vom 19.11.24
    • Mit der neuen EU-KI-Verordnung stehen Hochschulen vor der Aufgabe, ihre Bildungsprogramme anzupassen und sicherzustellen, dass Studierende, Lehrende und Forschungsteams über relevante KI-Kompetenzen verfügen. Die Verordnung zielt darauf ab, Vertrauen und Sicherheit in KI-Systeme zu fördern, indem sie von allen Beteiligten fundierte Kompetenzen fordert.
  • Florentine Anders: KMK: Länder einigen sich auf Empfehlungen zum Umgang mit KI in Schulen Deutsches Schulportal vom 10. Oktober 2024.
    • Während im Ausland teilweise auch Nutzungsverbote von Künstlicher Intelligenz an Schulen diskutiert werden, empfehlen die Kultusministerien einen „konstruktiv-kritischen“ Umgang mit der KI im Bildungsbereich. Am 10. Oktober veröffentlichte die KMK gemeinsame Handlungsempfehlungen. Auch bereits in der Grundschule könne das Lernen mit KI-Sprachmodellen demnach sinnvoll sein. Was man in der Schule lernt, will man dann im Leben auch nutzen und erproben. Warum nicht auch in der Wikipedia?
  • Schlauer durch KI in der Schule? Deutschlandfunk 30. November 2024
    • Der Einsatz von KI in der Schule ist umstritten. Digitalexperte Ralph Müller-Eiselt betont, wie wichtig es ist, den Umgang mit neuen Technologien früh zu vermitteln. Medienpädagoge Ralf Landau sagt, dass es wichtig ist, nach Alter zu differenzieren.
  • Nicolas Walter:Betrug bei schriftlichen Arbeiten? Das KI-Problem für die Unis WELT vom 13.10.2024
    • Können Studenten schriftlich Haus- und Abschlussarbeiten künftig einfach mithilfe Künstlicher Intelligenz erstellen? Manche Uni fängt an, sich gegen Betrugsversuche zu wappnen. Im Ausland werden bereits Bachelor-Arbeiten mancherorts abgeschafft. Zusätzliche Präsenzprüfungen kommen ins Spiel
    • Dort sind die Probleme ähnlich, es ist aber auch unklar, wo der Betrug anfängt und was noch legitime Nutzung ist.
  • Alexandra Mankarios: Bildungsforschung Wann KI beim Lernen hilft – und wann sie schadet Deutsches Schulportal 13.12.24
    • Wie viele Lehrerinnen und Lehrer haben KI schon im schulischen Kontext ausprobiert – und was tun sie damit? Diesen Fragen ist der Branchenverband Bitkom nachgegangen und hat dafür von Juni bis August 2024 502 Lehrkräfte der Sekundarstufe 1 und 2 um Auskunft gebeten. Das Ergebnis zeigt ein gespaltenes Bild. 28 Prozent der Lehrkräfte hatten noch keine Erfahrungen mit KI, wollten aber in Zukunft welche sammeln. 51 Prozent der Befragten hatten künstliche Intelligenz schon für die Schule genutzt, aber nur gut die Hälfte in dieser Gruppe wollte das auch in Zukunft tun. 45 Prozent der Lehrkräfte, die bereits KI im Schulkontext genutzt hatten, wollten künftig lieber darauf verzichten. 11 Prozent lehnten die Nutzung von künstlicher Intelligenz kategorisch ab. Interessant: Beinahe vier von zehn befragten Lehrkräften waren der Ansicht, dass künstliche Intelligenz in der Schule nichts verloren hat – obwohl 79 Prozent in dieser Gruppe fanden, dass alle Schülerinnen und Schüler KI-Kompetenzen erwerben sollten.
    • Bereits im Januar 2024 hatte die Vodafone-Stiftung 1.500 junge Menschen zwischen 14 und 20 Jahren zu ihrer Nutzung von künstlicher Intelligenz befragt. In dieser Gruppe sind die Berührungsängste mit KI etwas geringer als unter Lehrkräften: Bereits knapp drei Viertel der befragten Jugendlichen hatten zu dem Zeitpunkt KI schon für die Schule genutzt, allerdings unterschiedlich intensiv. 8 Prozent der KI-nutzenden Jugendlichen taten das laut eigener Aussage täglich, 31 Prozent mehrmals in der Woche, weitere 29 Prozent immerhin mehrmals im Monat. Dabei kommt vor allem ChatGPT zum Einsatz (46 Prozent), auf Platz zwei und drei folgen Google Lens (25 Prozent) und Apple Siri (24 Prozent).
  • Generative KI verunreinigt Daten Das Sprachanalyse-Projekt Wordfreq wird eingestellt, weil generative KI die verfügbaren Daten im Internet zu stark verunreinigt.
    • Ursprünglich wurde mit dem Projekt das Internet durchsucht, um die sich ständig ändernde Popularität verschiedener Wörter im menschlichen Sprachgebrauch zu analysieren. Da mittlerweile zu viele große Sprachmodelle das Internet mit Inhalten geflutet hätten, die nicht von Menschen geschrieben seien, verzerrten diese die gesammelten Daten zu stark, erklärte Speer. Sie glaube nicht, dass irgendjemand zuverlässige Informationen über die Sprachverwendung nach dem Jahr 2021 habe.

Journalismus, Verlage

[Quelltext bearbeiten]
  • Vorsicht, Verlage! Warum der Journalisten-Verband jetzt beim KI-Einsatz warnt kress.de vom 4.11.24
    • Anlass ist die Veröffentlichung einer Studie durch den Medienverband der Freien Presse. Demnach setzt die Mehrheit der Verlage bereits KI ein oder testet sie. Was DJV-Bundesvorsitzender Mika Beuster einwendet. 26 % der deutschen Verlage haben bereits eine Strategie zum Einsatz von KI implementiert und weitere 40 % arbeiten daran, sagt die Studie “Verlagstrends 2024” des Medienverbands der Freien Presse. Von 212 befragten Verlagen befassen sich nur 16 % nicht mit KI. 78 % der Häuser beschreiben ihre Erfahrungen als “eher positiv”, 12 % als “durchweg positiv”. Noch bedeutender als KI sind für 80 % die Bedrohung der Unternehmenssicherheit und 83 % der demografische Wandel
  • Roboterjournalismus: Wenn Künstliche Intelligenz den Artikel schreibt srf.ch vo 7.12.24
    • Das passiert bereits heute in den Redaktionen: Viele Journalistinnen und Journalisten lassen Künstliche Intelligenz (KI) für sie arbeiten, indem sie beispielsweise lange Dokumente von Behörden zusammenfassen lassen. Auch Vorschläge für einen Titel oder Textabschnitte kann man ein Programm machen lassen...Die Bedeutung von KI wird zunehmen. Sie kann den Journalistinnen Routine-Arbeiten abnehmen, Journalisten bei der Recherche helfen und Zeit sparen, damit mehr Ressourcen frei werden. Dass KI Menschen ersetzt, davon geht Thomas Benkö <Verlagshaus Ringier> nicht aus: «Momentan führt KI nicht zu Entlassungen. Durch die Zeit, die Journalisten dank ihr gewinnen, können sie in vertiefte Recherche stecken.» Doch klar ist, das Berufsbild wandle sich. So wie es bereits mit dem Aufkommen des Computers und des Internets der Fall war.

Kunst und Kultur

[Quelltext bearbeiten]
  • Malte Kirchner: KI-Studie: Kreativen droht Wegfall von 25 Prozent des Einkommens heise.de vo, 5.12.24
    • Eine Studie der Kreativwirtschaft hat die Folgen Künstlicher Intelligenz untersucht. Es drohen hohe Einnahmeverluste, wenn die Politik nicht einschreite...Die Kreativen...verlieren an zwei Fronten: Einerseits würde Arbeitsmöglichkeiten verloren gehen, wenn Musik oder Bewegtbild-Inhalte zunehmend mit Hilfe von generativer KI produziert werden. Zum anderen würden die KI-Entwickler vorhandene menschliche Werke zumeist ohne Genehmigung und Entschädigungszahlung für das Training und die Verbesserung ihrer KI-Modelle verwenden.
  • Correlations - KI in Kunst und Design Podcast hr-inforadio.de vom 13.12.24
    • "Kunst kommt von Können" - hieß es früher. Kunst wurde als Handwerk verstanden, als Kunstfertigkeit, gepaart mit menschlichem Geist, mit Kreativität und einer möglichst erbaulichen Botschaft. So gesehen ist es natürlich eine Provokation, wenn Kunst plötzlich auch von Maschinen, gar von künstlicher Intelligenz gemacht wird.

Sonstiges und Vermischtes

[Quelltext bearbeiten]
  • Hey_ hat schon 100 MILLIONEN Fragen beantwortet BILD vom 1.12.24. Mehr als 100 MILLIONEN Fragen sind der Künstlichen Intelligenz von BILD schon gestellt worden. Und ebenso viele Antworten hat Hey_ seit dem Start im September 2023 den BILD-Lesern geliefert.

Science - Fiction

[Quelltext bearbeiten]

-> Dort hat man sich schon lange mit Szenarien beschäftigt, ob und wie die KI autonom agiert und dabei auch keine Rücksicht auf Menschen nimmt - ihn sogar als Fehlfaktor betrachtet und dann mehr oder weniger eliminiert. Es entstammt (noch) der menschlichen Phantasie und oft siegt der Mensch, aber nicht immer. Die Beispiele sind subjektiv ausgewählt, wo nicht nur Action im Vordergrund steht.

...

Tabelle LLM und Chatbots

[Quelltext bearbeiten]

Irrtum vorbehalten, da sich auch einige Quellen widersprechen), bitte ggf. mit aktualisieren und korrigieren: Visual Editor

KI-Chatbot LLM
GPT-3.5 GPT-4.0

GPT-4o Mai 24

o1 Claude 3 Opus und

Claude 3.5 Sonnet Jun 24

Sonar 3.1 Large Llama 2, 3.1, 3.2

Llama 3.1 405B

Llama-3.1-Nemotron-70B-Instruct

Llama 3.3 LLM (nur Text)

NVLM 1.0

(D-72B) Familie, MLLM (Text, Bilder) Open Source

Gemini 1.0 (Dez 23) Gemini 1.5 Gemini 2.0 (Dez 24) Mistral Large und Nemo Jamba 1.5 OpenELM Amazon Lex

neu 12/24 Amazon Nova

pplx-7b und pplx-70b
OpenAI OpenAI OpenAI Anthropic Perplexity Meta Nvidia Nvidia Google Mistral AI AI21labs Apple Amazon Perplexity
ChatGPT x ChatGPT Plus ChatGPT Plus
Perplexity x Perplexity Pro Perplexity pro nutzt optional 3.0 in Perplexity Pro x x
Google Gemini x
ZenoChat Powered by...(ChatGPT)
Copilot (auch über MS Edge) x x
Claude x
you.com (eigenes LLM) (?) pro x x
AI Chat x Plus Version
Le Chat x
Hugging Chat x
META AI (noch nicht in jedem Land verfügbar) x
Typing Mind x Claude 3 Llama 3 x
Neuroflash x x
Chatsonic x x
Pi (Inflection AI, eigenes LLM Inflation 2.5)
GitHub Copilot x x
Open AI Playground x x
(Noch) keine Nutzung in öffentlichen Chatbots, Nutzung für Unternehmens-Chatbots x x für Apple-Technologie x

Ein paar Illustrationen wichtiger Aspekte (auf Commons gefunden)

[Quelltext bearbeiten]

Sie erscheinen plausibel und illustrieren Dinge, die ich auch gesucht habe Sie sind aber nicht tiefengeprüft und das Alter ist zu beachten.

Beim Draufclicken werden die grösser und  man kommt auch zu "Weitere Einzelheiten", wo mehr dazu steht.

Auch bei Suche KI (wird offenbar synomym behandelt) finde ich solche Darstellungen eher nur auf Englisch... --Wortulo (Disk. * KI-Projekt) 21:16, 29. Nov. 2024 (CET)[Beantworten]

Medien wie Bilder, Grafiken und andere stammen in der Regel aus Wikimedia:Commons, wenn nichts anderes angegeben ist. Die Autoren und Lizenzbedingungen sind ersichtlich, wenn man das Medium anclickt (vergrössert) und dann "Weitere Einzelheiten" aufruft. Die Lizenzbedingungen sind insbesondere dann zu beachten, wenn eine Verwendung ausserhalb der Wikipedia erfolgen soll.

Zitate sind kursiv dargestellt, "→" kennzeichnet redaktionelle Zusammenfassungen