أخبار العرب

البشريّة في سباق مع الزمن لتعلّم كيفيّة استخدام الذكاء الاصطناعيّ

[ad_1]

مع أنّ الذكاء الاصطناعيّ قد يفيد البشريّة بطرق كثيرة، حذّر هاريس من أنّ الحوافز الّتي تدفع الشركات لنشر التكنولوجيا قد تزيد آثارها السلبيّة بشكل كبير…

أكّدت مسؤولة كبيرة وخبراء في الأمم المتّحدة، أنّ البشريّة في سباق مع الزمن لتعلّم كيفيّة استخدام الذكاء الاصطناعيّ من أجل المصلحة العامّة وتجنّب المخاطر الكبيرة الّتي يحملها.

وقالت الأمينة العامّة للاتّحاد الدوليّ للاتّصالات دورين بوغدان مارتن، “لقد تركنا المارد يخرج من القمقم”. وأضافت في افتتاح قمّة عالميّة تقام ليومين في جنيف، وتحمل عنوان “الذكاء الاصطناعيّ من أجل الصالح”: “نحن في سباق مع الزمن”.روتابعت “إنّ التطوّرات الأخيرة في مجال الذكاء الاصطناعيّ هي ببساطة استثنائيّة”.

ويدرك آلاف الحاضرين في القمّة أنّ التقدّم في الذكاء الاصطناعيّ التوليديّ بدأ يسرّع الجهود المبذولة لحلّ بعض المشاكل العالميّة الطارئة مثل التغيّر المناخيّ والجوع والإعانة الاجتماعيّة.

وقالت بوغدان مارتن في رسالة بالبريد الإلكترونيّ قبل انطلاق القمّة “أعتقد أنّنا أمام فرصة لا تتكرّر سوى مرّة واحدة في كلّ جيل، لوضع الذكاء الاصطناعيّ في خدمة كلّ شخص على هذا الكوكب”. لكنّها أبدت الخميس أسفها؛ لأنّ خدمة الإنترنت لا تزال غير متاحة لثلث البشريّة “المستبعد عن ثورة الذكاء الاصطناعيّ من دون أن يتمكّن من التعبير عن نفسه”.

وشدّدت بوغدان مارتن على أنّ الذكاء الاصطناعيّ يحمل “إمكانات هائلة، سواء للخير أو للشرّ”، مشيرة إلى ضرورة جعل “أنظمة الذكاء الاصطناعيّ آمنة”.

وقالت إنّ ذلك مهمّ في المرحلة الراهنة تحديدًا؛ لأنّ “2024 هو أكبر عام انتخابيّ في التاريخ”، إذ ستنظّم انتخابات في عشرات البلدان بينها الولايات المتّحدة. وأضافت “مع ظهور حملات التضليل المتقدّمة من نوع التزييف العميق، يعدّ 2024 أيضًا العام الأكثر إثارة للجدل”. وحذّرت من أنّ “سوء استخدام الذكاء الاصطناعيّ لا يهدّد النظام الديمقراطيّ فحسب، بل يعرّض الصحّة الذهنيّة للشباب للخطر ويهدّد الأمن السيبرانيّ”.

وفي خطاب ألقته في حدث آخر تمحور على إدارة الذكاء الاصطناعيّ هذا الأسبوع، أشارت الأمينة العامّة للاتّحاد الدوليّ للاتّصالات إلى أنّ “قوّة الذكاء الاصطناعيّ تتركّز في أيدي عدد قليل جدًّا من الجهات”.

وقالت “إنّ التموضع في هذا النوع من المواقف خطر وغير أخلاقيّ إلى حدّ ما بالنسبة إلى البشريّة”. وأبدى خبراء آخرون كانوا حاضرين في القمّة موافقتهم على حديث بوغدان مارتن.

وقال تريستان هاريس، وهو عالم متخصّص بأخلاقيّات التكنولوجيا وشارك في تأسيس مركز “سنتر فور هيومن تكنولوجي”: “علينا أن نفهم إلى أين نتّجه”.

وأشار إلى الدروس المستقاة من وسائل التواصل الاجتماعيّ الّتي تمّ تقديمها في البداية كوسيلة لربط الناس ومساحة تعبير لكلّ فرد، ولكنّها تسبّبت في الوقت نفسه بإدمان، وساهمت في انتشار المعلومات المضلّلة، والمضايقة عبر الإنترنت، وعزّزت من المشاكل الذهنيّة لدى المراهقين.

ومع أنّ الذكاء الاصطناعيّ قد يفيد البشريّة بطرق كثيرة، حذّر هاريس من أنّ الحوافز الّتي تدفع الشركات لنشر التكنولوجيا قد تزيد آثارها السلبيّة بشكل كبير.

وقال “إنّ الدافع الأساسيّ وراء أداء شركتي أوبن إيه آي وغوغل هو التسابق للهيمنة على السوق”. وأضاف “في عالم مماثل من المهم جدًّا أن تواكب الحوكمة سرعة تقدّم التكنولوجيا”.

وأقرّ مدير “أوبن إيه آي”، مبتكرة برنامج “تشات جي بي تي” الشهير، سام ألتمان، بأنّ هذا التقدّم التكنولوجيّ قد يحمل مخاطر.

وفي حديث عبر اتّصال بالفيديو، قال للحاضرين إنّ “الأمن السيبرانيّ” يمثّل حاليًّا أكبر مسألة مقلقة في ما يتعلّق بالآثار السلبيّة الّتي قد تنجم عن الذكاء الاصطناعيّ.

وسيكون من الضروريّ ربّما على المدى البعيد “تغيير العقد الاجتماعيّ؛ نظرًا إلى القوّة المتوقّعة لهذه التكنولوجيا”، حسب قول ألتمان.

وشدّد في الوقت نفسه على أنّ أنظمة الذكاء الاصطناعيّ تعدّ من منظور التطوّر التاريخيّ للتكنولوجيّات الجديدة، “آمنة وقويّة عمومًا”.

وفي حين رحّب بالمناقشات الّتي تتمحور على القوانين التنظيميّة الرامية إلى الحدّ من الآثار السلبيّة القصيرة الأمد للذكاء الاصطناعيّ، حذّر من “صعوبة” وضع قوانين تهدف إلى الحدّ من تقدّمه.

وسلّط مؤسّس شركة “اكسبونانشل فيو” عظيم أزهر الضوء على الحاجة إلى استجابة مؤسّسيّة أقوى بكثير “لضمان أنّ الذكاء الاصطناعيّ يمنح الناس قدرات خارقة بدل النظر إليه على أنّه أداة لتحلّ محلّهم”.

ورحّبت بوغدان مارتن بمسارعة الحكومات والجهات الفاعلة الأخرى “أخيرًا لوضع تدابير حماية” وقوانين مرتبطة باستخدام الذكاء الاصطناعيّ.

وكان الاتّحاد الأوروبّيّ أعلن الأربعاء عن إنشاء مكتب للذكاء الاصطناعيّ يعنى بتنظيم هذه التكنولوجيا بموجب قانون جديد.



[ad_2]
Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى