KI-Halluzinationen bei Code-Entwicklung führen in Security-Katastrophe
https://winfuture.de/news,150635.html #KI #KIHalluzinationen #Halluzinationen #Programmieren
KI-Halluzinationen bei Code-Entwicklung führen in Security-Katastrophe
https://winfuture.de/news,150635.html #KI #KIHalluzinationen #Halluzinationen #Programmieren
In der Softwareentwicklung hat sich ein neues Risiko herauskristallisiert: sogenannte „Package Hallucinations“. Dabei handelt es sich um KI-generierte Empfehlungen für Code-Bibliotheken, die in Wirklichkeit gar nicht existieren. Diese Halluzinationen können von Angreifern ausgenutzt werden, um schädliche Pakete in die Lieferkette einzuschleusen.
#ki #ai #cyberrisiko #software #lieferkette #halluzinationen #code #cybersecurity #it
Also ich find AIs schon toll. Wisst ihr noch früher, als die verdammten Rechner immer recht hatten? Man jede Meinungsverschiedenheit gegen sie verloren hat. Endlich nicht mehr. Dank AI.
GPT-4.5: OpenAIs größtes Modell beeindruckt, aber zeigt Schwächen
OpenAI hat mit GPT-4.5 ein neues Sprachmodell vorgestellt, das hinsichtlich Größe und Wissen alle Vorgängerversionen übertrifft. Trotz dieser Ankündigung stößt das Modell auf gemischte
https://www.apfeltalk.de/magazin/news/gpt-4-5-openais-groesstes-modell-beeindruckt-aber-zeigt-schwaechen/
#News #Tellerrand #GPT45 #GPT5 #Halluzinationen #Kosten #KnstlicheIntelligenz #OpenAI #ReasoningModelle #Sprachmodell #Verfgbarkeit
Googles KI-Übersichten liefern weiterhin fehlerhafte Informationen – und oft erscheinen diese vertrauenswürdig.
https://www.heise.de/news/Googles-KI-Uebersichten-ist-immer-noch-nicht-zu-trauen-10186919.html
Beispiele wie der erfundene „Jodan Skyflyer Ultra Express“ zeigen, wie #generativeKI #Halluzinationen erzeugt und #Falschinformationen verbreitet.
Obwohl Google diese Funktion als Fortschritt vermarktet, bleibt die Gefahr groß, dass Nutzer den fehlerhaften Output für bare Münze nehmen.
Eigentlich ist der gesamte Output von Sprachmodellen eine einzige Halluzination, aber wir nennen ihn nur dann so, wenn wir bemerken, dass etwas daran falsch ist.
@avatter Uffpasse, kann ja zu #Halluzinationen kommen
KI kann sich selbst trainieren – aber auch selbst kaputtmachen | BR24
https://www.br.de/nachrichten/netzwelt/ki-kann-sich-selbst-trainieren-aber-auch-selbst-kaputtmachen,ULyrXpv #KI #Chatbot #Halluzinationen
Ich habe mal ein Interview mit einem guten Freund geführt, der als Beamter früher unterschiedliche Drogen geschmissen hat.
Wie es dazu kam und wie er wieder davon losgekommen ist, ist Thema des Interviews. (Der Name ist natürlich geändert.)
Ich auf jeden Fall fand es sehr interessant.
#drogen #beamte #sucht #abhängigkeit #kiffen #haschisch #lsd #pilze #halluzinationen #techno
Nur zu leicht ist man begeistert, wenn eine Antwortmaschine in flüssigem Text die Ergebnisse einer Suchanfrage präsentiert, so wie es Perplexity tut. Doch die Tools treffen noch krasse Falschaussagen. Meine Erfahrungen mit Perplexity und wie ich das Tool mit Ideogram und Luma miteinander zusammenarbeiten lasse.
Studie in Nature stellt eine Methode vor, um bestimmte #Halluzinationen bei #Sprachmodellen zu reduzieren. 2 unabhängige Forschende schätzten die Studie ein: Methode kann hilfreich sein, hat aber Einschränkungen und ist kein Allheilmittel. https://www.sciencemediacenter.de/alle-angebote/research-in-context/details/news/halluzinationen-in-sprachmodellen-reduzieren/?mtm_campaign=mastodon&mtm_kwd=halluzinationen-in-sprachmodellen-reduzieren
Wenn die KI beim Mülltrennen zu halluzinieren beginnt - Forschung - derStandard.de › Wissen und Gesellschaft
https://www.derstandard.de/story/3000000223058/wenn-die-ki-beim-muell-trennen-zu-halluzinieren-beginnt #KI #Halluzinationen
Beschwerde gegen OpenAI wegen Halluzinationen von ChatGPT - Netzpolitik - derStandard.at › Web
https://www.derstandard.at/story/3000000217670/beschwerde-gegen-openai-wegen-halluzinationen-von-chatgpt #OpenAI #ChatGPT #Halluzinationen
Warum es bisher keine gute Methode gegen KI-#Halluzinationen gibt https://heise.de/-9633784 #künstlicheIntelligenz
Texte mit KI: "ChatGPT hat den Verstand verloren" - Golem.de
https://glm.io/182456?n #Chatbot #ChatGPT #Halluzinationen
Nutzer ratlos: ChatGPTs Antworten werden zunehmend rätselhaft
https://t3n.de/news/chatgpts-antworten-raetselhaft-1609261/ #Chatbot #ChatGPT #Halluzinationen
«Der Mechanismus, der hinter den #Halluzinationen steckt, ist eigentlich in jedem #Hirn vorhanden.» Neurowissenschaftler Pavo Orepic zeigt, wie ein Roboter bei gesunden Personen #Stimmenhören triggern kann. https://www.snf.ch/de/TT4Y8OOLU2tLtKJo/news/wie-der-stups-durch-einen-roboter-stimmenhoeren-triggert
Die dunkle Seite der KI: Warum Chatbots oft die Wahrheit verdrehen
https://glm.io/176398?n #Chatbots #Halluzinationen