- Viel hilft nicht mehr viel: Neue Wege für intelligentere KI gesucht DerStandard vom 11.11.24
- Für das Training einer Künstlichen Intelligenz (KI) gilt bislang meist das Motto: "Viel hilft viel." Entwickler füttern ihre Software mit immer mehr Daten und nutzen immer leistungsstärkere Prozessoren, damit ChatGPT, Gemini & Co bessere Antworten geben. Diese Methode stößt inzwischen aber an ihre Grenzen. Daher versuchen Forscher, den Programmen "menschliches Denken" beizubringen. Dadurch könnten einerseits die Karten im Kampf um die Führung bei dieser Technologie neu gemischt werden. Aber auch die Anbieter von Hochleistungsrechnern müssen auf der Hut sein, denn neue KI-Generationen könnten ganz andere Chips benötigen als die aktuelle.
- Wohin die Reise der KI geht Die Presse 12.11.24
- Künstliche Intelligenz. Schneller, ressourcenschonender, dezentraler: Ein neues Buch fasst den Status quo zusammen und befasst sich mit Erwartungen und Trends.
- Zhou, L., Schellaert, W., Martínez-Plumed, F. et al.: Larger and more instructable language models become less reliable. Nature 634, 61–68 (2024):
- The prevailing methods to make large language models more powerful and amenable have been based on continuous scaling up (that is, increasing their size, data volume and computational resources1) and bespoke shaping up (including post-filtering2,3, fine tuning or use of human feedback4,5). However, larger and more instructable large language models may have become less reliable. By studying the relationship between difficulty concordance, task avoidance and prompting stability of several language model families, here we show that easy instances for human participants are also easy for the models, but scaled-up, shaped-up models do not secure areas of low difficulty in which either the model does not err or human supervision can spot the errors. We also find that early models often avoid user questions but scaled-up, shaped-up models tend to give an apparently sensible yet wrong answer much more often, including errors on difficult questions that human supervisors frequently overlook. Moreover, we observe that stability to different natural phrasings of the same question is improved by scaling-up and shaping-up interventions, but pockets of variability persist across difficulty levels. These findings highlight the need for a fundamental shift in the design and development of general-purpose artificial intelligence, particularly in high-stakes areas for which a predictable distribution of errors is paramount.
- Sechs KI-Trends, von denen wir 2025 noch mehr sehen werden news.microsoft.com vom 6.12.24, deutsche Übersetzung eines Beitrages von Paus Nyhan (Microsoft-Autor)
- KI-Modelle der nächsten Generation: Warum KI-Modelle leistungsfähiger und nützlicher werden, wie sie komplexe Probleme lösen und Innovationen vorantreiben; Agenten revolutionieren die Arbeitswelt: Wie KI-Agenten repetitive Aufgaben übernehmen, Geschäftsprozesse neu gestalten und individuell angepasst werden können; KI für den Alltag: Wie KI-Begleiter wie Microsoft Copilot das Leben erleichtern, von der Organisation bis zur Entscheidungsfindung; Nachhaltige KI-Infrastruktur: Wie Microsoft mit innovativen Technologien und umweltfreundlichen Rechenzentren die Effizienz und Ressourcenschonung verbessert; Verantwortungsvolle KI-Entwicklung: Welche neuen Tests und Kontrollmöglichkeiten helfen, Risiken zu minimieren und Sicherheit zu gewährleisten; Wissenschaftliche Durchbrüche: Wie KI zur Lösung globaler Herausforderungen beiträgt, von der Entwicklung nachhaltiger Materialien bis zur Arzneimittelforschung.
- Was KI wirklich kann. Wohin entwickelt sich Künstliche Intelligenz? LMU-Forschende über Einsatz und Grenzen der Technologie in Medizin, Wirtschaft und Gesellschaft LMU.de 9.12.24
- Welche Herausforderungen sind mit der Technologie verbunden? Worauf kommt es bei der weiteren Entwicklung an? Wissenschaftlerinnen und Wissenschaftler verschiedener Disziplinen an der LMU beleuchten folgende Aspekte: Erklärbarkeit, Demokratische Kontrolle, Hatespeech, KI in der Medizin, Neue Geschäftsmodelle, Fake News, Urheberrechtsfragen, Datenqualität, KI und Literatur, Ethik
- Michael Lang, Richard Kraft: Ab wann ist eine KI vertrauenswürdig? Tagesschau vom 3.10.2024; siehe auch: MISSION KI – Neues Innovations- und Qualitätszentrum am DFKI eröffnet Pressemitteilung vom 19.7.2024:
- Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.
- Das Ende der Wahrheit - KI täuscht uns alle orf.at 13.11.24:
- Künstliche Intelligenz (KI) hat sich längst in unseren Alltag geschlichen: Sie generiert Bilder, verfasst Texte, komponiert Musik und imitiert Stimmen – täuschend echt. Doch mit welchen Konsequenzen für unsere Gesellschaft? In der neuen Dok1 „Das Ende der Wahrheit – KI täuscht uns alle“ nimmt uns Hanno Settele mit auf eine kritische Entdeckungsreise in die Welt der generativen KI und hinterfragt deren Einfluss auf unser Leben.
- Euregio-Netzwerk: Wie vertrauenswürdig ist KI? unibz auf salto.bz 13.12.24
- Ein Netzwerkverbund von Forscher:innen der Euregio, die mit ihren unterschiedlichen fachlichen Kompetenzen und Perspektiven die Vertrauenswürdigkeit von KI prüfen sollen... Auf einer Veranstaltung der Euregio-Plattform für Menschenwürde und Menschenrechte (Euphur) wurde heute von Wissenschaftler:innen der Universitäten in Bozen, Innsbruck und Trient eine regionale Initiative für dieses wichtige Anliegen gestartet.
- Marvin Fuhrmann: Bevor Halluzinationen entstehen: So könnten KI-Modelle künftig ihre Fehler frühzeitig einsehen digital pioneers 30.10.254:
- Ihr Lösungsansatz sind sogenannte „Probing Classifiers“, also KI-Modelle, die den Token-Output von LLMs analysieren können. Diese KI-Modelle können anhand der korrekten Token trainiert werden und erkennen anschließend, anhand welcher Faktoren ein großes Sprachmodell die Token intern auswählt und ausgibt. Anhand dieser Daten kann der Classifier schon vorab einschätzen, ob die Antwort korrekt ausfällt oder ob die KI einen falschen Weg zur Antwort genommen hat.
- Bias bei künstlicher Intelligenz: Risiken und Lösungsansätze auf activemind.legal.
- Bias in KI ist ein Phänomen, das auftritt, wenn KI-Systeme systematisch verzerrte Ergebnisse liefern, die bestimmte Gruppen oder Individuen ungerecht bevorzugen oder benachteiligen. Diese Verzerrungen können sich auf vielfältige Weise manifestieren, von der Benachteiligung bestimmter Bevölkerungsgruppen bei der Jobsuche bis hin zur ungerechten Behandlung in rechtlichen oder medizinischen Anwendungen.
- Forscher zeigen: Das passiert, wenn man eine einzige Zahl in einer KI mit Milliarden Parametern verändert. digital pioneers 27.11.24
- Forscher:innen haben herausgefunden, dass KI-Modelle schnell aus dem Gleichgewicht geraten können. Oftmals reicht es, einen bestimmten Parameter zu verändern, damit die Modelle ihre Intelligenz verlieren. Im Test veränderten die Forscher:innen rund 7.000 Parameter ohne Auswirkungen auf den KI-Output. Nur der Superparameter sorgte dafür, dass Llama-7B nicht mehr funktionierte. Das liegt laut Yingzhen Li vom Imperial College in London daran, dass diese Parameter meist am Anfang des KI-Modells stehen. Sind sie fehlerhaft, setzt sich der Fehler durch alle weiteren Parameter durch. Künftig könnte sich diese Erkenntnis für die Weiterentwicklung von künstlichen Intelligenzen rentieren. Denn KI-Forscher:innen müssen Wege finden, wie Modelle auch ohne diese besonders wichtigen Parameter auskommen und etwa andere Wege zu einer richtigen Antwort finden können.
- Florian Maier und David Linthicum: Openwashing – die neue Masche der KI-Anbieter Computerwoche vom 13.12.24
- Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her.
- Dieter Petereit: KI-Training am Limit: Warum minderwertige Daten die Zukunft der Künstlichen Intelligenz gefährden digital pioneers 30.11.24
- Damit eine KI nutzbringend trainiert werden kann, benötigt sie neue und vor allem qualitativ hochwertige Daten. Dazu wurden in der Vergangenheit frei im Internet zugängliche Magazine und Fachpublikationen verwendet...Auch Zeitungs- und Wissenschaftsarchive oder Communities wie Reddit und Stack Overflow werden genutzt. Die größeren KI-Unternehmen haben bereits Verträge mit Publishern wie Springer, Reuters oder der New York Times geschlossen, um an deren Inhalte zu gelangen...Das Problem ist, dass die Inhalte viel zu langsam wachsen, um den Trainingshunger der rasch besser werdenden KI-Modelle zu stillen...Eine Alternative besteht nun darin, auch als qualitativ minderwertig geltende Quellen für das Training zu benutzen. und noch weitere sehr spannende Aspekte
- GAN: Was ist ein GAN? AWS auf amazon.com Wie funktioniert ein generatives gegnerisches Netzwerk GAN=Gerative Adversarial Network:
- Ein generatives gegnerisches Netzwerksystem besteht aus zwei tiefen neuronalen Netzwerken — dem Generatornetzwerk und dem Diskriminatornetzwerk. Beide Netze trainieren in einem kontradiktorischen Spiel, bei dem das eine versucht, neue Daten zu generieren, und das andere versucht vorherzusagen, ob es sich bei der Ausgabe um gefälschte oder echte Daten hande
- OpenAI strebt globale Vorreiterrolle in der KI an auf it-boltwise.de vom 30.11.24
- OpenAI hat sich ehrgeizige Ziele gesetzt, um bis 2025 als führendes globales Technologieunternehmen im Bereich der Künstlichen Intelligenz zu agieren. Mit einer Reihe von strategischen Initiativen, darunter die Einführung von KI-Agenten und einer KI-gesteuerten Suchmaschine, plant das Unternehmen, eine Milliarde Nutzer weltweit zu erreichen. Das Unternehmen hat bereits bedeutende Fortschritte gemacht, indem es Partnerschaften mit großen Technologiekonzernen wie Apple eingegangen ist. Diese Partnerschaften sind ein zentraler Bestandteil der Wachstumsstrategie von OpenAI, die darauf abzielt, die Integration von ChatGPT in Apple-Geräte zu fördern und so die Nutzerbasis erheblich zu erweitern.
- Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor Handelsblatt live vom 23.9.2024:
- Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile. „Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarks sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.
- Unterstützt durch den WDR: Europäische KI geht an den Start presse.wdr.de vom 26.11.24:
- Als Partner des europäischen Forschungsprojekts OpenGPT-X war der WDR an der Entwicklung des neuen großen Sprachmodells "Teuken-7B" beteiligt. Die KI wurde unter anderem mit deutscher Sprache trainiert, bietet hohe Datensicherheit und kann auch von Unternehmen kostenfrei genutzt werden. Sie soll auch in der ARD eingesetzt werden. Die neue KI umfasst sieben Milliarden Parameter und wurde von Grund auf mit den 24 Amtssprachen der EU trainiert. Dies bedeutet eine höhere Effizienz auch bei deutschen Sprachanwendungen. Als Open-Source-Modell kann “Teuken-7B” in Unternehmen kostenfrei eingesetzt und für die jeweiligen Anforderungen angepasst werden. Sensible Daten können vollständig im Unternehmen verbleiben. Wird “Teuken-7B” in europäischen Datenclouds genutzt, können hohe europäische Standards für Datenschutz eingehalten werden.
- Alternative zu ChatGPT? n-tv vom 26.11.24
- Multilingual und Open Source: Forschungsprojekt OpenGPT-X veröffentlicht großes KI-Sprachmodell Presseinformation Fraunhofer IAIS vom 26.11.24:
- Teuken-7B steht in zwei Varianten zur Verfügung: einer Version, die für Forschungszwecke genutzt werden kann, und einer Version unter der Lizenz »Apache 2.0«, die Unternehmen neben Forschung auch für kommerzielle Zwecke nutzen und in eigene KI-Anwendungen integrieren können. (also noch kein Chatbot).
- Huschens, Martin; Briesch, Martin; Sobania, Dominik; Rothlauf, Franz (2023-09-05), Vertraust du ChatGPT? -- Wahrgenommene Glaubwürdigkeit von menschlichen und KI-generierten Inhalten, arXiv, doi:10.48550/arXiv.2309.02524 Wikimedia Research Newsletter Band 13 Ausgabe 09 2023
- Im Blindtest bevorzugen die Leser die ChatGPT-Ausgabe gegenüber Wikipedia-Artikeln in Bezug auf die Klarheit und sehen beide als gleichermaßen glaubwürdig an Das Summary übersetzt:
- Dieses Paper untersucht, wie Einzelpersonen die Glaubwürdigkeit von Inhalten wahrnehmen, die von menschlichen Autoren stammen, im Vergleich zu Inhalten, die von großen Sprachmodellen wie der GPT-Sprachmodellfamilie, die ChatGPT antreibt, in verschiedenen Versionen der Benutzeroberfläche generiert werden. Überraschenderweise zeigen unsere Ergebnisse, dass die Teilnehmer unabhängig von der Präsentation der Benutzeroberfläche dazu neigen, ein ähnliches Maß an Glaubwürdigkeit zuzuschreiben. Während die Teilnehmer auch keine unterschiedlichen Wahrnehmungen von Kompetenz und Vertrauenswürdigkeit zwischen menschlichen und KI-generierten Inhalten berichten, bewerten sie KI-generierte Inhalte als klarer und ansprechender. Die Ergebnisse dieser Studie dienen als Aufruf zu einem anspruchsvolleren Ansatz bei der Bewertung von Informationsquellen und ermutigen die Benutzer, beim Umgang mit von KI-Systemen generierten Inhalten Vorsicht und kritisches Denken zu walten zu üben.
- KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“ newsroom.de 24.9.2024
- Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren“
- Kompetenz 2023. Einstellungen, Handeln und Kompetenzentwicklung im Kontext von KI Digitales Deutschland (aber eben 2023!)
- Zum zweiten Mal hat Digitales Deutschland die deutschsprachige Bevölkerung ab 12 Jahren nach ihren Kompetenzen, Einstellungen zu und Handeln mit Digitalen Medien und insbesondere zu Künstlicher Intelligenz (KI) befragt. Der Ergebnisbericht „Kompass: Künstliche Intelligenz und Kompetenz 2023“ belegt erneut: Die Bevölkerung ist auf dem Weg zu einer digitalen Gesellschaft, hat aber noch ein gutes Stück zu gehen. Welche Hürden den Menschen dabei im Wege stehen und wie sie beim Kompetenzerwerb unterstützt werden können, ist im „Kompass: Künstliche Intelligenz und Kompetenz 2023“ näher beschrieben.
- Der Hype um generative KI flacht ab – neue Einblicke in Nutzung, Ängste und Regulierung (Deutschlnd)
- Zwei Jahre nach der Veröffentlichung von ChatGPT zeichnet eine neue bidt-Studie ein differenziertes Bild zur Nutzung und Akzeptanz generativer KI in Deutschland. Die Ergebnisse zeigen: Der anfängliche Hype um die Technologie hat nachgelassen und die Nutzungsrate bleibt auf dem Niveau des Vorjahres. Die Ängste um den Verlust des eigenen Arbeitsplatzes hingegen nehmen ab...Roland A. Stürz, Abteilungsleiter des Think Tank am bidt, fasst zusammen: „Die Ergebnisse unterstreichen die Notwendigkeit, Informations- und Kompetenzaufbau zu fördern. Es braucht klare Regeln und Strategien für den Umgang mit generativer KI, um die Potenziale auszuschöpfen und Risiken zu minimieren. Politik, Wirtschaft und Gesellschaft stehen gleichermaßen in der Verantwortung, den Wandel aktiv zu gestalten.“
- 40 Prozent der Schweizer Bevölkerung nutzen KI-Tools SRF.com 5.9. 2012:
- Bei den Jugendlichen ist diese Nutzung schon fast selbstverständlich, während ältere Personen KI-Tools vergleichsweise selten anwenden. TV und Audio boomen hingegen über alle Generationen hinweg, wie die Studie «Digimonitor» der Interessengemeinschaft elektronische Medien (Igem) und der Werbemedienforschung zeigt.
- KI-Siegeszug und Sorgen vor Manipulation ztdheute vom 27.11.24
- Erstmals nutzen mehr als die Hälfte der Deutschen KI-Modelle, die Technologie hat sich rasant etabliert. Doch bleiben Sorgen - über falsche Ergebnisse bis zur Wahlmanipulation.
- JIM-Studie 2024: Knapp zwei Drittel der Jugendlichen haben Erfahrung mit KI Gewerkschaft Erziehung und Wissenschaft (GEW) vom 4..12.24
- Während im vergangenen Jahr 38 Prozent der Jugendlichen ChatGPT genutzt haben, sind es mittlerweile 57 Prozent. Auch KI-Angebote von Snapchat, Google KI und DALL-E spielen eine Rolle. Der schulische Einsatz ist das häufigste Motiv, KI zu nutzen.
- No Hype KI: brutkasten startet neue Serie zu künstlicher Intelligenz brutkasten.com
- brutkasten startet gemeinsam mit CANCOM Austria, IBM, ITSV, Microsoft, Nagarro, Red Hat und der Universität Graz eine neue multimediale Serie zu künstlicher Intelligenz. Die erste Videofolge wird am kommenden Donnerstag, den 12. Dezember, um 10 Uhr veröffentlicht. insgesamt 6 Folgem angegeben.
|