Advertisement · 728 × 90
#
Hashtag
#Halluzinationen
Advertisement · 728 × 90
Video

Wikipedia-Artikel werden jetzt durch organisierte KI-Übersetzungen ruiniert. #wikipedia #ki #chatgpt #gemini #halluzinationen #ai #aislop

10 1 3 1
Preview
KI-Halluzinationen – Was heißt das genau? • IT Center Blog Entdecke, was KI-Halluzinationen sind und warum sie bei generativen KIs auftreten. Erfahre, wie du sie erkennen und gering halten kannst!

Nicht alles, was eine #KI generiert, ist korrekt!

Diese #Halluzinationen sind falsche Informationen, die überzeugend wirken können, in kritischen Bereichen aber gefährlich werden können.

Wie entstehen sie und wie erkennst du sie? Finde es auf unserem Blog heraus! 📚🔍
sohub.io/xjay

1 0 1 0
Original post on mastodon.online

#Steady-#Klimacrew

Wie riskant ist es, #Gerichtsdokumente mithilfe von KI zu erstellen?

Wenn #Chatbots statt Fakten fiktive Urteile oder Fakequellen liefern, wird es teuer – und peinlich. Ein Fall aus #Kalifornien zeigt, welche Folgen mangelnde Prüfung generierter Inhalte haben kann […]

0 1 0 0
Original post on mastodon.online

#Steady-#Klimacrew

Wieso geben #Sprachmodelle oft selbstbewusst falsche Antworten?

Beim Grund fasst man sich an die Stirn. Werden wir eines Tages Modelle haben, die zur Abwechslung mal „Ich weiß es nicht“ sagen? Eine Studie zeigt, woran man arbeiten müsste, damit #Sprachmodelle besser […]

0 1 0 0

Guter Punkt!

#Halluzinationen sind kein #KI-Spezifikum, sondern ein Grundproblem jedes #neuronalenNetzwerks, biologisch wie künstlich.

Sie werden nicht durch Verzicht auf #KI gelöst, sondern durch Spiegelung …

3 1 1 0
Paprika vom Grill

Paprika vom Grill

„Natürlich sInd dies KEINE Wärmesohlen für dünne Radlerschuhe .. aber die Anmutung dazu ist in der Kälte nicht aus dem Kopf zu kriegen!“;)
#Halluzinationen

1 0 0 0
Preview
OpenAI wirbt mit ChatGPT als Navigator für die Gesundheit OpenAI inszeniert ChatGPT als Gesundheits-Tool mit Nährwertberechnung per Foto und Live-Coaching zum Workout beim Spaziergang.

Um Himmels Willen. #ChatGPT als Gesundheitsberater.

Ja OK, wenn man auf #Halluzinationen steht.

For heaven's sake. ChatGPT as #health advisor.

Well OK, if you're fond of #hallucinations.

0 0 0 0
Preview
Hallucinations Are Geometric Failures, Not Missing Facts John P. Alioto, December 2025

Spannend, nicht nur für #Mathe - Lehrkräfte@ ^^
#bluelz #KI #AI #Halluzinationen
@thorstn.bsky.social
open.substack.com/pub/jpalioto...

0 0 0 0

[Transparenzhinweis: Inspiration durch #Halluzinationen Diskussion s.u.]

0 0 1 0
Preview
Wikipedia: Als die Wikipedia begann zu halluzinieren In der Wikipedia häufen sich Quellen, die es nicht gibt – weil immer öfter die KI, nun ja, "hilft". Sie bedroht damit das Erfolgsprinzip: menschliche Intelligenz.

Wikipedia: Als die Wikipedia begann zu halluzinieren | DIE ZEIT
www.zeit.de/digital/inte... #Wikipedia #KI #Halluzinationen

0 0 0 0
Video

Wikipedia: Als die Wikipedia begann zu halluzinieren | DIE ZEIT
www.zeit.de/digital/internet/2025-11... #Wikipedia #KI #Halluzinationen

0 0 1 0

#Halluzinationen der KI. Sie fantasiert Informationen herbei, die in sich schlüssig wirken, aber keinerlei Faktenbasis haben. Und das nicht zu wenig! ⬇️ ⬇️

3 0 0 0

In einer Online-Publikation hat @rikefranke.bsky.social unter ihrem Namen eine zunächst plausibel scheinende, aber nichtexistente sicherheitspolitische Quelle entdeckt. In der Diskussion darunter kommen weitere Beispiele mutmaßlicher #Halluzinationen auf. ➡️ #Awareness bei der Nutzung von #AI.

21 4 0 0
Preview
Deutsches Startup kombiniert KI-Modelle: Lassen sich so Halluzinationen reduzieren? | t3n KI-Modelle machen Fehler: Halluzinationen sind ein bekanntes Problem bei Chatbots wie ChatGPT oder Claude. Das Karlsruher Unternehmen Embraceable AI will sie mit seiner Technologie deutlich reduzieren...

t3n.de - Deutsches Startup kombiniert #KI-Modelle: Lassen sich so #Halluzinationen reduzieren? #KI #AI
t3n.de/news/ki-mode...

2 0 0 0
Video

⚡ OpenAI: KI Halluzinationen gestoppt?

▶️ Entdecke die NEUE Lösung
▶️ Verstehe das GEHEIME Muster
▶️ Enthülle den RADIKALEN Ansatz

#ai #ki #artificialintelligence #halluzinationen #openai #forschung #trust #innovation

💬 LIKEN ❤️ TEILEN 🔄 LESEN 📖 FOLGEN ➕

kinews24.de/ki-halluzina...

1 0 0 0
Screenshot aus einem Posting in Reddit. Text oben „ChatGPT asked if I wanted a diagram od what's going on inside my pregnant belly“
Darunter das ausgegebene Schnittbild, welches einfach durchgehend falsch ist: Es ist ein Fötus in aufrechter Position zu sehen. Der Körper der schwangeren Person weist einen Penis auf, der mit "Rectum" beschriftet ist. Es gibt keine Nabelschnur, keine Plazenta. Die Schambeinfuge ist als Cervix, also Gebärmutterhals bezeichnet…

Screenshot aus einem Posting in Reddit. Text oben „ChatGPT asked if I wanted a diagram od what's going on inside my pregnant belly“ Darunter das ausgegebene Schnittbild, welches einfach durchgehend falsch ist: Es ist ein Fötus in aufrechter Position zu sehen. Der Körper der schwangeren Person weist einen Penis auf, der mit "Rectum" beschriftet ist. Es gibt keine Nabelschnur, keine Plazenta. Die Schambeinfuge ist als Cervix, also Gebärmutterhals bezeichnet…

Ach, das war sicher nur ein schlechter Prompt…

#KI #ChatGPT #Halluzinationen

23 3 4 1

sehr lesenswert #chatGPT #Halluzinationen #heftig

1 0 0 0
Post image

Neuer Blog-Artikel:

Künstliche Intelligenz und moralische Dilemma - Google AI auf den Zahn gefühlt

--> cool-web.de/blog/2025-08...

#GoogleAI #ChatGPT5 #KünstlicheIntelligenz #KI #AI #Moral #Ethik #Philosophie #Psychologie #Lügen #Ausreden #Halluzinationen #Bewusstsein

2 1 0 0
Post image Post image

Ich war gestern auf einer Veranstaltung zum Thema #KI was sehr interessant war. Wenn Künstliche Intelligenz Dinge "erfindet", die quasi nicht stimmen, dann nennt man das #Halluzinationen - was echt krass ist. Bin gespannt, warum das so ist und wie eine KI das macht.

0 0 0 0
Video

Wenn ChatGPT dir Märchen erzählt: Wie du KI-Halluzinationen rechtzeitig erkennst - t3n – digital pioneers
t3n.de/news/chatgpt-maerchen-ha...
#KI #Chatbot #ChatGPT #KIHalluzinationen #Halluzinationen

1 0 0 0
Ein Android sitzt mit nachdenklicher Miene vor einem Computerbildschirm, auf dem Programmcode zu sehen ist. Er kratzt sich dabei am Kopf.

Ein Android sitzt mit nachdenklicher Miene vor einem Computerbildschirm, auf dem Programmcode zu sehen ist. Er kratzt sich dabei am Kopf.

KI-Halluzinationen bei Code-Entwicklung führen in Security-Katastrophe
winfuture.de/news,150635.... #KI #KIHalluzinationen #Halluzinationen #Programmieren

0 0 0 0
Ein Android sitzt mit nachdenklicher Miene vor einem Computerbildschirm, auf dem Programmcode zu sehen ist. Er kratzt sich dabei am Kopf.

Ein Android sitzt mit nachdenklicher Miene vor einem Computerbildschirm, auf dem Programmcode zu sehen ist. Er kratzt sich dabei am Kopf.

KI-Halluzinationen bei Code-Entwicklung führen in Security-Katastrophe
https://winfuture.de/news,150635.html #KI #KIHalluzinationen #Halluzinationen #Programmieren

0 0 1 0
Preview
Wenn KI Gespenster sieht: Wie erfundene Code-Bibliotheken zur neuen Gefahr für die Software-Lieferkette werden Wenn die KI Gespenster sieht und halluziniert: In der Welt der Softwareentwicklung hat sich ein neues Risiko herauskristallisiert: sogenannte „Package

Risiko in der Softwareentwicklung: „Package Hallucinations“, KI-generierte Empfehlungen für Code-Bibliotheken, die in Wirklichkeit gar nicht existieren 👇👇👇

#code #software #entwicklung #cybersecurity #cyberrisiko #lieferkette #ki #ai #halluzinationen #teufelswerk

teufelswerk.net/wenn-ki-gesp...

2 1 0 0
Preview
o3 und o4-mini: OpenAIs neue Modelle halluzinieren mehr als die Vorgänger Dass KI-Modelle Fakten „halluzinieren“, ist eines der größten Probleme. Bei OpenAIs neuesten Modellen verstärkt sich der Trend wieder.

o3 und o4-mini: OpenAIs neue Modelle halluzinieren mehr als die Vorgänger #o3 #o4 #halluzinationen

1 0 0 0
Preview
Halluzinationsverhinderungswerkzeugkasten: KI-Märchen und die Wirklichkeit Können Maschinen denken? Den berühmten Mathematiker und Übervater der Künstlichen Intelligenz Alan Turing hat allein schon die Frage aufgeregt. Sie sei bedeutungslos. Es gehe doch in Wahrheit darum, ob wir in der Lage sind, eine maschinelle Täuschung als eine solche zu entlarven. Diese Erkenntnis kam Turing vor mehr als sieben Jahrzehnten, weit bevor „denkende“ Maschinen oder auch nur funktionierende Computer entstanden. Doch die Frage der Entlarvung einer maschinellen Täuschung könnte aktueller nicht sein. Oder können Sie noch mit Sicherheit ausschließen, diese Woche schon einen generierten Text gelesen zu haben? Turing verdeutlichte das Problem in einem Aufsatz von 1950 mit einem spielerischen Test: In der bekannten Version des von ihm beschriebenen Imitationsspiels befinden sich ein Mensch und eine Maschine hinter einem Sichtschutz, um von einer Person per Chat verhört zu werden. Die Antworten werden auf einem Bildschirm angezeigt. Kann der Mensch allein mit geschickten Fragen und den auf dem Computerbildschirm ausgegebenen Antworten entscheiden, ob sich ein Mensch oder eine Maschine hinter dem Absender verbirgt? Heute nennen wir dieses Imitationsspiel in einer abgewandelten Variante nach seinem Schöpfer den Turing-Test. Und selbstverständlich schaffen es einige Maschinen heute, die sie verhörenden Menschen über ihre Maschinenhaftigkeit zu täuschen. Sie wurden schlicht so programmiert. Aber gewöhnliche Software, die nicht speziell für diesen Test erstellt wurde, scheitert oft schnell. ### Seriosität simulieren Der Brite Turing war nicht der einzige, den „denkende“ Maschinen beschäftigten. Ungefähr zur gleichen Zeit, allerdings auf der anderen Seite des Atlantiks, stellten sich John McCarthy, Marvin Minsky und einige Kollegen eine verwandte Frage: Wie können wir Denken simulieren, indem wir maschinelle Worte so transformieren, dass sie sich mit Hilfe von Mathematik ausdrücken lassen? Inzwischen simulieren die heutigen Large Language Models (LLMs) recht eindrucksvoll zwar nicht das Denken, aber doch das formalisierte Schreiben und fachliche Sprechen hinreichend gut. Sie können uns durch KI-generierte Stimmen täuschen. Sie übertrumpfen vor allem aber locker die Bemühungen von McCarthy und Minsky um ganz weltliche Fragen nach der Finanzierung ihrer Forschung. Als Nebenprodukt ihrer wissenschaftlichen Überlegung fiel der Hauptantrieb der heutigen KI-Entwicklung ab: Allein die Verwendung des von ihnen erfundenen Schlagwortes Artificial Intelligence bringt nun bereits seit siebzig Jahren Fördergelder ins Haus. ### Künstliche Intelligenz #### Wir schrieben schon über maschinelles Lernen, bevor es ein Hype wurde. Unterstütze unsere Arbeit! Jetzt spenden Die Summen sind gigantisch. Es ist daher nur logisch, dass von den KI-Anbietern nun auch der letzte Schritt des Turingschen Imitationsspiels vollzogen wurde: Wie können wir Seriosität so simulieren, dass wir mit Wagniskapital in Milliardenhöhe vollgepumpt werden? ### Die wissenschaftliche Antwort Wenn man sich die Frage stellt, ob die angebeteten neuen LLM-Werkzeuge seriös und zuverlässig genug für den produktiven Einsatz sind, sollte man nicht die Anbieter oder deren PR-Verbündete fragen, sondern unabhängige Forscher. Die wissenschaftliche Antwort auf diese Frage ist deutlich: nein. Eine Studie der Stanford-Universität wertete beispielsweise 200.000 Anfragen über rechtliche Fragen mit gängigen LLMs aus, die schlicht blamable Ergebnisse erbrachten. Umso komplexer die Fragen wurden, desto schlechter schnitten die LLMs ab. Zuweilen war ihr Antwortverhalten nicht besser als „zufälliges Raten“, wie die Forscher nicht ohne Süffisanz feststellten. Insgesamt pendelten die Antworten von GPT 3.5, Llama 2 und PaLM 2 zwischen 58 Prozent und 82 Prozent Falschantworten bei den gestellten juristischen Fragen. Dass die Systeme auch in neueren Versionen keine wahrheitsgemäßen Antworten generieren, sondern nur plausible Texte, stellen selbst die Anbieter generativer KI-Systeme klar. In einem Interview rückte kürzlich Microsofts CEO Satya Nadella auch von dem selbst gesteckten Anspruch ab, eine denkende KI zu erschaffen. Die gegenwärtigen Bezugspunkte rund um Artificial General Intelligence (AGI) seien „nonsense“ und leeres „benchmark hacking“. Es gehe doch darum, dass mit Hilfe dieser KI ein Wirtschaftswachstum wie zu Beginn der Industriellen Revolution möglich sei, meint Nadella. Die viel geeignetere Richtgröße könnte daher sein, ob eine AGI in der Lage ist, hundert Milliarden US-Dollar Gewinn zu erwirtschaften. Dann sei das Ziel der Artificial General Intelligence erreicht, wie es in einer internen Absprache zwischen OpenAI und Microsoft heißt. In der Tat passen Lotterie und Börsenspekulation auch viel besser zur Funktionsweise dieser stochastisch arbeitenden Systeme. In der Wirklichkeit ist Gewinn freilich noch weit entfernt. Bisher ist noch nicht einmal Rentabilität absehbar. Sam Altman, CEO von OpenAI, räumte kürzlich ein, dass sein Konzern selbst mit seinem teuersten Abonnement von derzeit 200 US-Dollar monatlich immer noch Geld verliert. ### Geringe Güte, hohe Popularität Was macht man also, wenn man ein unrentables Softwareprodukt geringer Güte, aber hoher Popularität hat, das quasi aus technischen Gründen immerfort auch Falsches und sogar Unfug in seine Antworten einfügt? Denn Semantik kann und wird ein LLM nicht beherrschen. Natürlich gibt es darauf schon eine Antwort: Man bietet zum LLM auch ein passendes „Hallucination Prevention Toolkit“ an. Übersetzt ist das ein Halluzinationsverhinderungswerkzeugkasten, was die Komik der Idee viel besser unterstreicht als die englische Version. Dieser Halluzinationsverhinderungswerkzeugkasten ist nicht etwa nur eine Idee, sondern kommt beispielsweise beim Sozialratgeber-Chatbot in Oberösterreich zum Einsatz, einem LLM namens KARLI. Der Chatbot wird als „KI-Assistent“ vermarktet, „mit sprachlichen Fähigkeiten, die denen von ‚ChatGPT‘ ähneln“. Dazu gehört eine „strenge Hallucination Prevention“, heißt es beim Anbieter für „halluzinationsfreie, sichere und vertrauensvolle LLM-Antworten“. Das ist ein bisschen, als würde man eine tolle neue Softwarelösung anbieten und dann aber hintendran ein paar notwendige Erweiterungen ranpappen, damit sie keinen fiktionalen Unsinn auswirft. Übersetzt in Brückenbau wären das wohl Extra-Stützen neben den Brückenpfeilern. Offenbar ist die Idee überkommen, ein Mensch mit Hirn und Kontextwissen könnte das Generierte tatsächlich lesen (wollen). Mit Hilfe eines Halluzinationsverhinderungswerkzeugkastens ließe sich die Quote sicher noch weiter senken. ### Den Unsinn der LLMs aussieben Eigentlich hatten die großen KI-Anbieter schon vor mehr als einem Jahr versprochen, dass grober Unfug, erfundene wissenschaftliche Quellen und falsche Referenzen der Vergangenheit angehören sollten. Das sei nur der Neuartigkeit der Technologie geschuldet, das merze man nun aus. Selbstverständlich gibt es noch immer peinliche aufgedeckte Fälle mit nicht existenten Belegen. Deswegen muss eine andere Lösung her: Microsoft hat schon einen Weg gefunden, die „Halluzinationen“ zum Geschäftsmodell umzufunktionieren. Der Konzern bietet nämlich „Microsoft Correction“ an. Das ist auch eine Art Halluzinationsverhinderungswerkzeugkasten, wird aber als Halluzinationskorrektur vermarktet. Die Nutzung kostet übrigens erstmals nichts, ist aber leider nur zusammen mit der „groundedness detection“ zu bekommen, um den Unsinn der LLMs auszusieben. Bis zu 5.000 Textbausteine pro Monat können kostenlos überprüft werden, danach sind 38 US-Cent pro 1.000 Bausteine zu löhnen, um LLM-Unfug zu eliminieren. Wer MS Correction also in Unternehmen zu verwenden plant, sollte sich auf einige Extrakosten einstellen. Wohlgemerkt für die notwendigen Korrekturen eines Diensts, der schlicht Fehler auswirft. Eine geniale Geschäftsidee, das muss man Microsoft lassen. Selbstverständlich wird dadurch aber keine Fehlerfreiheit garantiert, wo kämen wir da auch hin? Aber der Anreiz der Anbieter, den erfundenen Quatsch bei den LLM-Antworten zu minimieren, dürfte damit wohl sinken. > Dürfen wir Ihre Informationen durch unsere KI jagen? ### Unterhaltung und Seelenfrieden Wir müssen dringend kurz noch über diese „Halluzinationen“ sprechen. Es wird fälschlicherweise davon ausgegangen, dass die Maschine halluziniert. Es sind aber tatsächlich die Menschen, die Täuschungen unterliegen und die LLM-Ergebnisse schlicht überinterpretieren. Es ist ein bisschen so, wie wir Figuren in den Wolken zu erkennen glauben. Wenn wir ein Buch lesen oder einen Film schauen, dann sehen wir mit Absicht über all die inhaltlichen Ungereimtheiten und sogar über Kommafehler und unstimmige Dialoge hinweg, damit wir das Narrativ und die Illusion genießen können. Das dient der Unterhaltung und dem Seelenfrieden. Bei KI und speziell LLMs beobachten wir die gleichen Phänomene, nur dass diesmal schier unglaubliche Mengen an Wagniskapital fließen, wenn die Märchengeschichten nur ernsthaft genug behauptet werden. Und dieser Quatsch von einer die Menschheit unterjochenden General Artificial Intelligence mag ja in Buch oder Film ganz unterhaltsam sein, aber sollte nicht dazu verleiten, ein Schauspiel mit der Wirklichkeit zu verwechseln. * * * _Stefan Ullrich ist promovierter Informatiker und Philosoph, der sich kritisch mit den Auswirkungen der allgegenwärtigen informationstechnischen Systeme auf die Gesellschaft beschäftigt. Er ist Referent für Digitale Bildung in der KI-Ideenwerkstatt für Umweltschutz._

netzpolitik.org/2025/halluzinationsverhi...
#ki #halluzinationen

0 0 0 0

Also ich find AIs schon toll. Wisst ihr noch früher, als die verdammten Rechner immer recht hatten? Man jede Meinungsverschiedenheit gegen sie verloren hat. Endlich nicht mehr. Dank AI.

#ai #halluzinationen

1 1 0 0
Preview
Ketamin: Von der Notfallmedizin zur gefährlichen Partydroge Ketamin ist ein Narkosemittel mit antidepressiver Wirkung und halluzinogenen Nebenwirkungen, das als Droge missbraucht wird. Was das Halluzinogen so gefährlich macht.

#Ketamin ist wie #PCP ein #Arzneimittel mit dissoziativer Wirkung. Dissoziativ ist der medizinische Fachbegriff für das, was wir umgangssprachlich als „weggetreten sein“ oder „neben sich stehen“ bezeichnen. Eine solche Dissoziation wird durch #Halluzinationen noch verstärkt .👇🏾

19 6 2 0
Preview
Deutscher in Krabi nach drogenbedingten Halluzinationen in Klinik - Reisenews Thailand Ein deutscher Auswanderer in der thailändischen Provinz Krabi wurde nach schweren Halluzinationen in eine Rehabilitationsklinik gebracht. Die Symptome,...

Deutscher in Krabi nach drogenbedingten Halluzinationen in Klinik

Studierter Chemieingenieur experimentiert mit Dimethyltryptamin (DMT)...
www.thailandsun.com/thailandsun-...

#Krabi #Thailand #Halluzinationen #Drogenmissbrauch #DMT #Psychedelika #Auswanderer #Kriminalität #Polizei #Psychiatrie

0 0 0 0
sportlicher Mann  mit Anonymous Maske. Er ist tätowiert  hat schwarze und weiße lackierte Fingernägel und einen zerfranztes Hemd an mit dem Spruch:  Stechapfel. Jesus ist auf dem Hemd zu sehen. Er hat weiße Engelsflügel. Er fliegt über Stechapfel (Datura stramonium) Pflanzen.

sportlicher Mann mit Anonymous Maske. Er ist tätowiert hat schwarze und weiße lackierte Fingernägel und einen zerfranztes Hemd an mit dem Spruch: Stechapfel. Jesus ist auf dem Hemd zu sehen. Er hat weiße Engelsflügel. Er fliegt über Stechapfel (Datura stramonium) Pflanzen.

Stechapfel: Giftig, gefährlich und doch verlockend. Eigener Erfahrungsbericht über Drogenkonsum in der Reha, Wirkung und Gefahren der Pflanze. Vorsicht ist geboten! neelixberlin.de/stechapfel/

#stechapfel #daturastramonium #nachtschatten #nachtschatten #halluzinationen #suchthilfe #neelixberlin

0 0 0 0

ich habe soeben per beschluss festgelegt, dass ich unter keinen umständen annehmen und meine heimatstadt verlassen werde, wenn die USA mich nach einer verfassungsänderung mit zweidrittelmehrheit zum präsidenten wählen sollten.

#FDP #halluzinationen #werdendlichimker

0 0 0 0