تلقت امرأة أمريكية مكالمة هاتفية من شخص يدعيّ خطف أبنتها طالباً فدية مليون دولار، مُستخدماً تقنية ذكاء اصطناعي غيرت صوته ليبدو وكأنه صوت أبنتها، التي لم يتم خطفها من الأساس وكانت تلعب مع أصدقائها.
وهي حالة واحدة فقط ضمن حالات لا حصر لها تأتي كمثالاً بسيطاً لاستخدام المحتالون طرق و أدوات الذكاء الاصطناعي للتزوير والاحتيال، أو من أخطاء وسلبيات استخدام تقنية الـ ai بشكل عام، فتلك الحوادث تترك عادة علامة تعجب و تساؤل واحد دائماً وهو .. من المسؤول؟!
مخاوف الخصوصية والفوضى والانتحار
وبين مخاوف من تسريب المعلومات وتزوير القضايا، وانتهاك الخصوصية، أحدثت نماذج الذكاء الاصطناعي غير الخاضعة لقواعد وسُبل الأمان الواجب توافرها للتعامل مع البشر، سيل من الفوضى، أبرزها كانت حادثة انتحار لرجل بلجيكي يُعاني من
القلق الشديد، اقنعته “ELIZA” (شات بوت) على إنهاء حياته بعد حوار استمر بينهما لمدة 6 أسابيع، وسبقها الحادث الأشهر بكسر إصبع طفل أثناء لعب الشطرنج مع روبوت، أو من انتهاك الخصوصيات والتتبع وارتكاب الجرائم، وغيرها كثيراً من التجاوزات.
وهو ما دفع العالم أجمع للمطالبة بوضع قوانين محددة لتحجيم تلك التجاوزات بقواعد تخضع لها كُبرى شركات الذكاء الاصطناعي في العالم.
وهو تحديداً ما بدأه الخبير القانوني المصري محمد البيه، زميل سياسات الذكاء الاصطناعي والخصوصية وأمن المعلومات في مجلس صناعة تكنولوجيا المعلومات بأمريكا، في دراسة نُشرت بجامعة جورج واشنطن بالولايات المتحدة الأمريكية تحت عنوان حماية و إدارة البيانات والمسؤولية القانونية لأنظمة الذكاء الاصطناعي والأمن السيبراني، Master of Law in Privacy, AI and cyber security laws.
و استهدف من خلالها التوازن بين المسؤولية القانونية للذكاء الاصطناعي، وانفتاح عمليات تطويره، وفي حديثه لـ«المصري اليوم» عن الدراسة، قال أن البحث تخصص في مدى تأثير قوانين حماية البيانات على تطوير تكنولوجيا الذكاء الاصطناعي بشكل عام، مُشيراً إلى أنها «أحياناً تتسبب في خنق الصناعة، بطريقة تجعل الشركات تحسبها ألف مرة قبل تقديم أي ابتكار جديد».
وتابع أن وضع قوانين صارمة سيحجم من القدرة الإبداعية لدى الشركات، فإذا خضع كل تطوير جديد لكثير من الإجراءات الروتينية والقواعد فسيعيق أي تطوير، لذلك القوانين الصارمة ليست الحل الأمثل، وهذا لا يُعني أيضاً أن الأمر يظل متروكاً بهذا الانفتاح الضار دون قواعد لأنه أيضاً يخلق شركات لا تحمل أدنى مسؤولية في تطوير التكنولوجيا الخاصة بها.
وعن هذا الجانب تطرق «البيه» إلى فكرة التوازن وهي محل دراسة الماجستير عن الحصول على قوانين محددة تشجع عملية الصناعة والتطوير وبالوقت ذاته تحافظ على أسس التعامل مع البشر.
وخلالها شرح مقارنة بسيطة بين قانون أوروبا والقانون الأمريكي قائلاً أن : 80% من قوانين البيانات من دول العالم تعود إلى قانون الاتحاد الأوروبي، ومنها توصل «البيه»، إلى أن القوانين ذاتها لا يتم تطبيقها بالطريقة نفسها بين دولة وأخرى، وهو ما يجعلنا في حاجة لتفسيرات واضحة لأشكال العقوبات في هذه القوانين.
وفيما يخص قضايا حقوق الملكية يقول خبير «قوانين الذكاء الاصطناعي»، أن فكرة إرفاق المصدر أمر في غاية الصعوبة، فالذكاء الاصطناعي لا يجمع معلوماته من مصدر واحد، بل قد يجمع أحياناً كلمة من كل موقع أو مصدر، ففكرة أن يضع على كل كلمة رابط للمصدر يُعتبر غير منطقي، بينما يمكنه وضع روابط كاملة بأسفل المحادثات كما يحدث الآن في حالة اقتباس أجزاء كبيرة من كتب أو مقالات.
لن يحل محل البشر والدليل الثورة الصناعية
يقول «البيه»: عندما حدثت الثورة الصناعية مع بداية المحركات والمصانع بدأت كثيراً من المخاوف، وحينها توقع الكثيرون إنهاء عملهم للآبد، لكن ماذا حدث الآن؟؟ صحيح هُناك مهام
اندثرت ، لكن تم ابتكار وظائف جديدة لم نكن نعلم عنها شيئاً، مثل عمال صيانة الآلات، أو وظائف محركات المصانع، فلم يكن لها وجود بالماضي، لكن التطور فرضها، مُضيفاً أن
التكنولوجيا بشكل عام يجب أن تطور، وهو ما سيخلق وظائف جديدة، تطرق إليها قائلاً أن على سبيل المثال الطيران والسيارات مقارنة بتجارة الجمال، أو السفر بالسفن، رغم التخوفات من
فقدان الوظائف إلا أن الطيران بمفرده خلق مليون وظيفة آخرى، والفكرة ذاتها في ثورة الذكاء الاصطناعي، فلم يكمن الحل في قمع تطوره، بل في تحديد قوانين مناسبة تمنع التجاوزات وتدعم تطويره.
بين نتائج الآلة وصانعيها من المسئول
كمثال يوضح الحلقة المفرغة بين من المسؤل عن ارتكاب هذه الأخطاء، الشركة المُصنعة أم الشخص الذي استخدمها في سُبل خاطئة، يقول متخصص الذكاء الاصطناعي في حديث لـ «المصري اليوم»، أن في فترة من الفترات
طُرحت قضية هامة محل نقاش بالأوساط القانونية العالمية؛ حيث استخدمت جهة تنفيذية حكومية برنامج ذكاء اصطناعي للاستدلال على المجرم، وذلك عن طريق إرسال معطيات من مسرح الجريمة، مثل مساحة المنزل، كام
طعنة قتلت الشخص، ومكان الجريمة، وبناءً على هذه المعطيات يحلل نظام ذكاء اصطناعي جميع البيانات المتوفرة لديه من سجلات القسم القديمة لجميع المُسجلين والمجرمين، ويبدأ في تنقية المشتبه بهم بنسبة 80 %.
وتابع: أن ما أثار أزمة في هذه القضية أن البرنامج اشتبه في شخص بنسبة 80% وبعد التحقيق معه وسجنه فترة استمرت قرابة الشهر، توصلوا للقاتل الحقيقي واكتشفوا أنه شخص آخر تماماً، وحينها رفع المشتبه به الأول قضية يُطالب فيها بتعويض نظراً لسجنه دون أدلة.
خلالها تمت العودة للشركة المُصنعة للسيستم لأنها المسؤولة عن نتائجه، بالمقابل رفضت الشركة تلك الحُجة لأنها بالفعل سلمت السيستم وكل شخص يستخدمه كيفما يشاء فهي غير مسئولة عن طرق الاستخدام.
وتعقيباً على هذه القصة يقول «محمد البيه» أن هذا الأمر يؤول بنا إلى فكرة المسؤلية المحدودة لشركات وخدمات الذكاء الاصطناعي، فدائماً جميع النتائج ليست دقيقة بنسبة 100% ، فقط تقف دائماً عند 80 فقط والباقي مجرد احتمالية، فمن سيكون مسئولاً.
وبشكل عام لن تفضل أي شركة بالعالم أن مع كل ابتكار جديد لها، يأتيها قضية جديدة لاستخدام خاطئ.
كيفية استفادة مصر من قوانين الذكاء الاصطناعي
يقدم خبير قوانين الذكاء الاصطناعي محمد البيه مجموعة اقتراحات تتيح استخدام قوانين الذكاء الاصطناعي في مصر، قائلاً في حديثه لـ «المصري اليوم»: أن أو خطوة بدء العمل بمركز إدارة
حماية البيانات، ومنه يتم ترسيخ مجموعة قوانين لاستخدامات الذكاء الاصطناعي لكن لا تعتمد على الحبس، بل ترتكز على الغرامات للشركات المُبتكرة للذكاء الاصطناعي، لأن فكرة
الاعتماد على سجن المُخطئين في هذا المجال ستعيق تطوره تماماً، فهو أمر لا جدوى له، النقطة الثانية أن يتم طرح نماذج توعية للمواطنين والشركات للمعرفة بالقوانين التي سيتم معاقبتهم عليها.
وتابع أهمية حصول مصر على زمالة للقوانين العالمية فهناك مجموعة كبيرة من دول العالم تحم نظام الزمالة للقانون الأوروبي لنقل البيانات، وهو ما يتيح حرية نقل البيانات بين هذه الدول وبعضها، ففي حالة حصولنا على هذه
الزمالة ستفتح مجالات كبيرة للاستثمارات التكنولوجية من شركات بجميع أنحاء العالم، نظراً لثقتهم في توافر قوة اعتماد قوانين دولية في مصر، وحالياً تسعى كثيراً من الدول العربية للحصول على هذه الزمالات أبرزها الإمارات.