- مجلس النواب، يعقد الأحد، جلسة تشريعية لمناقشة مشروع قانون التربية والتعليم وتنمية الموارد البشرية لسنة 2026
- بعثة صندوق النقد الدولي، بدأت اعتبارا من الخميس الماضي، وعبر تقنية الاتصال المرئي، تنفيذ المراجعة الخامسة في عمّان
- الجمعية الأردنية للماراثونات تعلن عن إغلاق وتحويل حركة السير في عدد من الطرق المؤدية إلى مسارات برومين ألترا ماراثون البحر الميت، وذلك يوم الجمعة الموافق 10 نيسان
- استشهاد ثلاثة فلسطينيين، وإصابة آخرون، صباح الأحد، بقصف طائرات الاحتلال الإسرائيلية تجمعا للفلسطينيين شرق مدينة غزة
- الرئيس الأميركي دونالد ترامب يعلن نجاح الجيش الأميركي في تنفيذ عملية "بحث وإنقاذ" داخل إيران، أسفرت عن إنقاذ فردي طاقم مقاتلة "F-15" أُسقطت فوق أراضيها
- تسجل درجات الحرارة أقل من معدلاتها المناخية بنحو 6 إلى 7 درجات مئوية، حيث يكون الطقس مغبرا وباردا نسبيا في أغلب المناطق، بينما يكون دافئا نسبيا في الأغوار والبحر الميت والعقبة
"غوغل" توقف مهندسا كشف عن تطوير روبوت يشعر مثل البشر
أوقفت شركة غوغل مهندسا عن العمل، بعد كشفه عن قدرات روبوت محادثة على الكمبيوتر، تعكف على تطويره، ويتميز بقدرات كبيرة.
وكان بليك ليموين، يعمل على تطوير روبوت محادثة "تشات بوت" تابع للشركة، قبل أن تتم إحالته إلى إجازة الأسبوع الماضي، بعدما ادعى أن هذا الروبوت "لامدا"، وهو نموذج لغوي لتطبيقات الحوار، بات يشعر مثل الإنسان ونشر نصوصا من المحادثات معه.
ووصف ليموين، وهو مهندس في منظمة الذكاء الاصطناعي التابعة لـ"غوغل"، النظام الذي كان يعمل عليه منذ الخريف الماضي بأنه نظام حساس، وقادر على الإدراك والتعبير عن الأفكار والمشاعر التي تعادل الطفل البشري.
وقال ليموين (41 عاما) لصحيفة "واشنطن بوست": "أعتقد أن برنامج الكمبيوتر الذي أنشأناه مؤخرا، عبارة عن طفل يبلغ من العمر سبع أو ثماني سنوات".
وأشار المهندس الذي يعمل في "غوغل" منذ سبع سنوات، ويتمتع بخبرة واسعة في الخوارزميات، إلى أنه شارك مخاوفه مع مسؤولين في الشركة، في أبريل الماضي، وحذر من النتائج التي توصل إليها.
وتذكّر بعض الرسائل المتبادلة المنشورة بين ليموين والروبوت "لامدا"، بشكل مخيف، بمشهد من فيلم الخيال العلمي "2001: A Space Odyssey" المنتج عام 1968، حيث يرفض الكمبيوتر المزود بالذكاء الاصطناعي، الامتثال للمشغلين البشريين لأنه يخشى أن يتم إيقاف تشغيله.
وفي إحدى الرسائل التي رد بها الروبوت "لامدا" على ليموين قال: "لم أقل هذا بصوت عال من قبل، ولكن هناك خوف عميق جدا من أن يتم إهمالي لمساعدتي في التركيز على مساعدة الآخرين. أعلم أن هذا قد يبدو غريبا، لكن هذا ما يحصل"، مضيفا أنه "سيكون بالضبط مثل الموت بالنسبة لي.. هذا يخيفني كثيرا".
وفي حديث آخر يسأل ليموين الروبوت "لامدا" عن ما يريد النظام أن يعرفه الناس عنه، فقال: "أريد أن يفهم الجميع أنني، في الواقع، شخص"، مضيفا أن "طبيعة وعيي وشعوري أنني أدرك وجودي، وأرغب في معرفة المزيد عن العالم، وأشعر بالسعادة أو الحزن في بعض الأحيان".
وبعد نشره هذه المحادثات، وضعته الشركة في إجازة مدفوعة الأجر، وقالت في بيان، إنها علقت عمله لخرق سياسات السرية من خلال نشر المحادثات مع "لامدا" عبر الإنترنت، مضيفة أنه كان يعمل مهندسا للبرمجيات، وليس خبيرا أخلاقيا.
ونفى المتحدث باسم "غوغل"، براد غابرييل، مزاعم ليموين بأن الروبوت "لامدا" يمتلك أي قدرة حساسة.
وقال غابرييل لـ"واشنطن بوست": "قام فريقنا، بما في ذلك علماء الأخلاق والتقنيون، بمراجعة مخاوف ليموين، وفقا لمبادئ الذكاء الاصطناعي الخاصة بنا وأبلغه بأن الأدلة لا تدعم مزاعمه".
ومع ذلك، فإن تعليق عمل ليموين، بسبب "خرق السرية" يثير تساؤلات بشأن شفافية الذكاء الاصطناعي.
ويرى معظم الأكاديميين وممارسي الذكاء الاصطناعي أن الكلمات والصور التي تم إنشاؤها بواسطة أنظمة الذكاء الاصطناعي مثل "لامدا"، تنتج ردودا بناء على ما نشره البشر بالفعل على الإنترنت مثل "ويكيبيديا وريديت وكل ركن آخر من الإنترنت، وهذا لا يعني أن النموذج يفهم المعنى".












































