يستعد الاتحاد الأوروبي لفرض قواعد على الذكاء الاصطناعي

مع استمرار توسع مجال الذكاء الاصطناعي (AI) وتطوره ، يتصارع صانعو السياسات على كيفية تنظيم هذه التقنيات بطريقة تحمي حقوق الأفراد وسلامتهم. يحتل الاتحاد الأوروبي موقع الصدارة في هذه الجهود ، مع الإعلان الأخير عن قواعد جديدة صارمة سيتم تطبيقها على مجموعة من أنظمة الذكاء الاصطناعي ، بما في ذلك ChatGPT ، روبوت الدردشة الذي احتل العناوين الرئيسية في الأشهر الأخيرة.
 
ChatGPT في مرمى لوائح منظمة العفو الدولية المقترحة من الاتحاد الأوروبي
ChatGPT في مرمى لوائح منظمة العفو الدولية المقترحة من الاتحاد الأوروبي

تستخدم لوائح الاتحاد الأوروبي المقترحة للذكاء الاصطناعي نهجًا قائمًا على المخاطر ، مع تصنيف الأنظمة إلى أربع مجموعات: مخاطر غير مقبولة ، ومخاطر عالية ، ومخاطر محدودة ، ومخاطر دنيا. سيتم تطبيق القواعد الأكثر صرامة على الأنظمة التي تندرج في الفئات غير المقبولة وعالية الخطورة ، والتي تشمل البنية التحتية الحيوية والجراحة والهجرة وإدارة الحدود ، من بين أمور أخرى. يجب أن تفي هذه الأنظمة بمتطلبات صارمة قبل طرحها في السوق ، وقد يتم فرض غرامات تصل إلى 30 مليون يورو أو 6٪ من الأرباح العالمية على المخالفين.
 
يتمثل أحد أبرز جوانب اللوائح المقترحة للاتحاد الأوروبي في تضمين روبوتات المحادثة في مجموعة المخاطر المحدودة. في حين أن روبوتات المحادثة قد لا تشكل خطرًا كبيرًا على سلامة الأفراد وحقوقهم مثل أنظمة الذكاء الاصطناعي الأخرى ، إلا أنها تمتلك القدرة على التلاعب بالسلوك البشري وخداع المستخدمين. على هذا النحو ، يطلب الاتحاد الأوروبي أن تكون برامج الدردشة الآلية شفافة بشأن حالة الذكاء الاصطناعي الخاصة بها ، بحيث يدرك المستخدمون أنهم يتفاعلون مع جهاز كمبيوتر وليس مع إنسان.
 
هذا التركيز على الشفافية والمساءلة هو سمة أساسية لنهج الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي. نظرًا لأن استخدام الذكاء الاصطناعي أصبح أكثر انتشارًا في صناعات مثل التمويل والرعاية الصحية والنقل ، فمن الضروري أن يتم تصميم هذه الأنظمة ونشرها بطريقة أخلاقية ومسؤولة. وهذا يشمل ضمان أن أنظمة الذكاء الاصطناعي غير تمييزية ، وخاضعة للرقابة البشرية ، وأن نتائجها يمكن ملاحظتها وتفسيرها.
 
في حين أن اللوائح المقترحة من الاتحاد الأوروبي لا تزال في طور الموافقة عليها من قبل الدول الأعضاء والبرلمان الأوروبي ، فإنها تمثل خطوة مهمة إلى الأمام في تطوير إدارة مسؤولة للذكاء الاصطناعي. من خلال وضع معايير واضحة لتصميم ونشر أنظمة الذكاء الاصطناعي ، يرسل الاتحاد الأوروبي رسالة إلى شركات التكنولوجيا وصانعي السياسات في جميع أنحاء العالم مفادها أن الاستخدام المسؤول للذكاء الاصطناعي يمثل أولوية قصوى. مع استمرار الذكاء الاصطناعي في تغيير عالمنا ، من الضروري أن نظل يقظين في جهودنا لضمان تسخير هذه التقنيات للصالح العام.
 
 

#buttons=(Accept !) #days=(20)

يستخدم موقعنا ملفات تعريف الارتباط لتحسين تجربتك. يتعلم أكثر
Accept !