Unironisch. Menschen fortgeschritteneren Alters hätten definitiv Probleme, diesen Ausdruck zu verstehen.
ChatGPT the master linguist, I'll try answering with "WTF bro" next time I get a crazy response.
Hatte ich auch schon. Nach zwanzig vierstelligen Namensvorschlägen gefragt und stattdessen dreizehn Vorschläge erhalten, die teils drei, teils vier und teils fünf Buchstaben hatten.
Hab es schon mehrfach zum wördl spielen versucht und bin immer wieder überrascht wie schlecht das klappt. Manche Sachen gehen echt in Ordnung, aber bis 5 zählen gehört nicht dazu.
Somit kostet das ganze auch das 3-fache an tokens, sieht so aus dass es mit Absicht falsche Ausgaben macht #Verschwörung
Ich liebe aber wie es auf deine "Bruh was" höflich reagiert, sich entschuldigt und noch mal in die Hose kackt
Hängt es nicht damit zusammen, dass ChatGTP auf Englisch „denkt“ und die Antworten übersetzt werden?
Nein, nicht wirklich. Chatgpt wurde auf viele Sprachen trainiert. Aber es "denkt" nicht unbedingt in einer Sprache, in sofern, dass es explizit von und in diese übersetzt. Das Hauptproblem ist, das chatgpt Antworten eher ratet als logische Anweisungen zu befolgen
Nein, es bastelt einfach Sachen zusammen, ohne den Inhalt wirklich zu wissen. Das funktioniert bei lexikographischen und mathematischen Dingen so gar nicht gut, weil ChatGPT natürliche Sprache generiert und die ist inhärent schwammig und doppeldeutig, also genau das Gegenteil einer logisch konstruierten Sprache.
Macht nicht wirklich Sinn, da weder "äussern" noch "bekanntgeben" auf Englisch mit "L" anfangen.
Ist ne komische Regel, wenn ich so drüber nachdenke. Der Pfosten passt perfekt zu dem, was ich hier gerne sehen würde.
Ja meiner meinung nach ist das wirklich keine Künstliche Intelligenz. Das ist nur ein generator der passende wörter schreibt die wahrscheinlich passen. Er hat keine Ahnung, was er schreibt. Er weiß nicht, was diese Worte eigentlich wirklich bedeuten. Daran ist nichts auch nur im infernsten eine KI.