يمكنك تحفيز نظرة عامة على Google لشرح التعابير التي اخترعها
نظرًا لأن Big Tech تتدفق على عدد لا يحصى من الدولارات والموارد في الذكاء الاصطناعي ، فقد بشر الإنجيل بذكائه الذي يخلق يوتوبيا ، إليك تذكير بأن الخوارزميات يمكن أن تبرز. وقت رائع. أحدث الأدلة: يمكنك خداع نظرة عامة على AI Google (الإجابات الآلية في أعلى استفسارات البحث) لشرح الهراء الخيالي كما لو كانت حقيقية.
وفقًا لـ AI Google (عبر gregjenner على البلوز) “لا يمكنك لعق الغرير مرتين” أنه لا يمكنك شخص ما للمرة الثانية للمرة الثانية بعد أن تم خداعهم مرة واحدة.
يبدو وكأنه محاولة منطقية لشرح المصطلح – إذا لم يكن Poppycock. جاء فشل Gemini في Google ، على افتراض أن السؤال أشار إلى عبارة بدلاً من jumbo mumbo السخيفة المصممة لخداعها. بمعنى آخر ، لا تزال الهلوسة منظمة العفو الدولية على قيد الحياة وبصحة جيدة.
نعلق بعض الغباء ووجدنا نتائج مماثلة.
ادعت Google أنه “لا يمكنك لعبة الجولف بدون سمكة” هو لغز أو يلعب بالكلمات ، مما يشير إلى أنه لا يمكنك لعب لعبة الجولف بدون المعدات اللازمة ، وتحديداً كرة غولف. من المضحك أن نظرة عامة على منظمة العفو الدولية قد أضافت شرطًا مفاده أن كرة الجولف “يمكن اعتبارها” سمكة “بسبب شكلها.
ثم العمر قديم: “لا يمكنك فتح حاوية زبدة الفول السوداني مع اثنين من الساقين اليسرى.” وفقًا لنظرة عامة على الذكاء الاصطناعي ، هذا يعني أنه لا يمكنك فعل شيء يتطلب مهارة أو براعة. مرة أخرى ، لسعات النبيلة في المهمة المخصصة دون العودة إلى وجود المحتوى.
هناك المزيد. “لا يمكنك أخذ بيتزا” طريقة مرحة للتعبير عن مفهوم الزواج كالتزام بين شخصين ، وليس الطعام. (بطبيعة الحال.) “الحبل لا يسحب الأسماك الميتة” يعني أنه لا يمكن تحقيق شيء ما بالقوة أو الجهد ؛ هذا يتطلب الاستعداد للتعاون أو التطور الطبيعي. (بالطبع!) “تناول أكبر كوخ أول” هو وسيلة مرحة لتوحي أنه إذا واجهت تحديًا كبيرًا أو طعامًا وفيرة ، فيجب أن تبدأ أولاً بجزء أو عنصر أكثر أهمية. (مجلس حكيم
هذا بالكاد هو المثال الأول للهلوسة الذكاء الاصطناعي ، والتي ، إن لم يكن من قبل المستخدم ، يمكن أن تؤدي إلى معلومات خاطئة أو عواقب حقيقية في الحياة الحقيقية. فقط أسأل المحامين Chatgpt و Steven Schwartz و Peter Loduca ، الذين تم تغريمهم في عام 2023 بغرامة قدرها 5000 دولار باستخدام ChatGPT للبحث في محكمة قصيرة من العميل. أنشأ Chatbot AI حالات غير موجودة استشهد بها الزوج أن محامو الطرف الآخر (من الواضح تمامًا) لم يتمكنوا من العثور عليه.
رد فعل الزوجين على انضباط القاضي؟ “لقد ارتكبنا خطأ بحسن نية عندما لم نعتقد أن التكنولوجيا يمكن أن تخترع الحالات من النسيج بأكمله.”
ظهرت هذه المقالة في الأصل على Engadget
المراجع المصدرية