تعد "الاخلاق"، بوجه عام الضابط المهم في الحياة الاجتماعية والتي تسد فراغاً كبيراً قد تتركه القواعد القانونية او تغفل عنه او تتحاشاه بسبب نسبية القيم في المجتمع، مما يجعل المشرع يتحاشى تقنينها خشية الاضطراب او التداخل في تلك القيم، ناهيك عن تنظيم الاخلاق لأي جانب من جوانب الحياة ومنه الذكاء الاصطناعي سيحقق اكبر قدر ممكن الفائدة منها، بل على الأقل درء او تقليل الاضرار الناجمة او التي قد تنجم عنها .
ولعل البحث في "أخلاقيات الذكاء الاصطناعي" يعد من المباحث الفلسفية التي طالما ناقشها الفلاسفة والمفكرين بين منكر وقلق ورافض لهذه المبتكرات الحديثة، بل ومتشائم منها وبين مؤيدٍ لها لاسيما بعد ان تعاظمت أخطار العديد من تطبيقات الذكاء الاصطناعي وإزدياد الاعتماد عليها في الحروب والتجسس وانتهاك الحقوق والخصوصيات والاعتداء على الحريات .
والواقع ان تعريف أخلاقيات الذكاء الاصطناعي لم يكن محل إهتمام فكري او فلسفي وبشكلٍ واضح الا في الربع الأخير من القرن العشرين، وقبل ذلك كانت عبارة عن محاولات بسيطة ومتفرقة ومنها وابرزها قوانين "أسيموف" الثلاثة والتي كتبها عام 1942،(1 ) ولعل ما كتبه عالم الفيزياء الأمريكي "Mitchel Waldrop" عام 1987 من مقالة تحت عنوان "سؤال عن المسؤولية" والتي نشرها في مجلة "الذكاء الاصطناعي" يمثل من ابرز بوادر البحث في الاخلاقيات من مجال الذكاء الاصطناعي، ومنها عبارة "... وعلى أية حال، فان ثمة شيء واحد واضح للمناقشة في أعلاه، مفاده ان الآلة الذكية ستجسد القيم والافتراضات والمقاصد، سواءٌ أراد المبرمجون ذلك أم لا، وسواءٌ كان لهم وعيٌ بذلك ام لا، وهكذا فعندما تصبح الآلات أجهزة الحاسوب والروبوتات أكثر ذكاءً، سيصبح من الضروري ان نفكر وبعمق ووضوح في ماهية القيم الأخلاقية، ولعل ما نحتاج اليه في الواقع هو نظرية وممارسة لأخلاقيات الآلة وفقاً لمضمون قوانين اسيموف الثلاث" .
وقد ذهبت منظمة "اليونسكو" عام 2020 الى تعريف "أخلاقيات الذكاء الاصطناعي" بأنها "الوثيقة التي تحدد الإطار القيمي والمبادئ واجبة الاتباع والمسؤوليات في مجال الذكاء الاصطناعي، والتي ترتب على أطراف العلاقة بما في ذلك المؤسسات والافراد المشتغلين في مجال التكنولوجيا، وكذا الحكومات بوصفها جهات داعمة والقطاعات الإنتاجية والمجتمع ككل، في مجال الذكاء الاصطناعي"، وعرّفتها مبادئ أخلاقيات الذكاء الاصطناعي" الصادرة عن الهيئة السعودية للبيانات والذكاء الاصطناعي لعام 2023 بالقول "الأخلاقيات، مجموعة من القيم والمبادئ والأساليب لتوجيه السلوك الأخلاقي في تطوير تقنيات الذكاء الاصطناعي" .
ولعل ابرز المواثيق التي صدرت على المستوى الدولي او الداخلي بشأن "أخلاقيات الذكاء الاصطناعي" مثلاً : الميثاق الكوري الجنوبي لأخلاقيات الذكاء الاصطناعي لعام 2007، والميثاق الوطني لأخلاقيات الذكاء الاصطناعي الأردني لعام 2022، مبادئ أخلاقيات الذكاء الاصطناعي السعودي لعام 2023، والميثاق المصري للذكاء الاصطناعي المسؤول لعام 2023، وأخلاقيات الذكاء الاصطناعي -الارشادات والمبادئ التوجيهية-" الاماراتي لعام 2023. وعلى المستوى الدولي ومنهام مثلاً : المبادئ التوجيهية لمنظمة الذكاء الاصطناعي الصادرة عن منظمة الذكاء الاصطناعي، وتقرير منظمة "هيومان رايتش"، والمبادئ التوجيهية الصادرة عن المفوضية الاوربية، وسياسة منظمة التعاون الاقتصادي والتنمية، ونداء روما لأخلاقيات الذكاء الاصطناعي، وسياسة منظمة "اليونسكو" ... وغيرها .
وإذا كانت "الاخلاق" بوجه عام منظومة من القيم والمبادئ والسلوكيات التي تنظم السلوك الاجتماعي، حتى ان الراجح في الأدبيات يعد الاخلاق فرعاً من فروع علم الفلسفة تتضمن تحديد السلوك المصيب من الخاطئ، او هي ما يميز سلوك الخير من الشر، وإذا كانت "قواعد القانون" تتمثل بأنها قواعد ملزمة ومصحوبة بجزاء قانوني لمن يخالفها .
فمن هنا فسيكون التساؤل الرئيسي، والسؤال المفصلي هنا :
ما القيمة القانونية للسياسات والمواثيق الأخلاقية الصادرة بشأن للذكاء الاصطناعي ؟
بمعنى آخر : هل ان القواعد الأخلاقية والسياسات القيمية التي توضع في مجال بناء وتطوير واستخدام تطبيقات الذكاء الاصطناعي، لها قوة ملزمة، ام لا ؟
للإجابة عن هذا السؤال لابد ان نذكر ابتداءً ان ابرز ما يميز القواعد الأخلاقية عن تلك القانونية، ان الأخيرة لها صفة "الإلزام"، ومن ثم إقرار "جزاء" لمن يخالف أحكامها بخلاف قواعد الاخلاق التي يتمثل جزاء مخالفتها في اللوم او الازدراء او التأنيب دون ان يكون ذلك في صورة جزاء قانوني بالمعنى المتعارف عليه في المجال القانوني، ومن ثم فسيختلف هــدف "القانون" عن "الاخلاق" في ان الأول يرمي الى تحقيق الاستقرار الاجتماعي وتحقيق التقدم وبسط الأمن، اما الاخلاق فتهدف الى ترسيخ القيم والتقاليد والعادات التي إستقرت في ضمير الجماعة . ومن هنا يمكن بسط الإشكالية الأساس التي تعد مدخلاً للإجابة عن التسؤل أعلاه، وهي : إذا كانت القواعد اللاخلاقية ليست بملزمة، فلماذا كل هذا البحث والاسهاب بشأنها ؟ ولماذا كل هذه التوجهات والجهود الداخلية والدولية الرامية الى رسم سياسات ووضع قواعد "أخلاقية" في مجالات الذكاء الاصطناعي ؟
الواقع ان التدفق الهائل لتقنيات الذكاء الاصطناعي وعلى النحو المعاصر والذي أخرجها في كثير من الأحيان عن السيطرة، وما أفضت اليه هذه التقنيات في كثير من الأحيان من إنتهاكات لحقوق الانسان وخصوصياته قد أدى الى البحث عن ضوابط أخلاقية لكبح جماح هذه التقنيات، ومن ثم فان هذه السياسات التي عملت الكثير من البلدان على رسمها مثل السعودية والأردن والامارات، والعديد من المنظمات كالامم المتحدة واليونسكو وغيرها، هي في حقيقتها "إرشادات او توجيهات لمبتكري ومنتجي ومطوري ومستخدمي هذه التقنيات(2 ) في ظل غياب تشريعات تنظم أحكام الذكاء الاصطناعي"(3 ) علّ ما في هذه الارشادات يكون ضابطاً لتنظيم هذه البيئة الرقمية، وصولاً الى ان تأخذ طريقها الى المشرعين من أجل وضع قواعد قانونية لتنظيم قواعد انتاج وتطوير واستخدام هذه الكيانات، سيما وان هذه السياسات في صورتها لا يمكن نعتها بأنها "قواعد قانونية، سواءٌ من الناحية الشكلية او الموضوعية، إذ ان صياغة النصوص القانونية تتطلب صياغات واضحة وقوالب معينة يجب مراعاتها، وليس نصوصاً إرشادية عامة، فضلاً عن وجوب صدور القواعد القانونية من جهات تشريعية او لها صلاحية التشريع، ومن ثم - والحال هذه - فان هذه العموميات المسماة بـ "سياسات أخلاق الذكاء الاصطناعي" تتجرد من الصفة القانونية الملزمة التي تميز قواعد القانون .
وفي أهمية السياسات الأخلاقية التي قد تفوق أحياناً أهمية النظم القانونية في ضبط هذه الجوانب القيمية، فقد جاء في مقدمة "ديباجة" الميثاق الوطني لأخلاقيات الذكاء الاصطناعي الأردني والصادر في "يوليو - تموز" من عام 2022 "... ضرورة وضع إطار أخلاقي يحدد الممارسات الفضلى في مجتمع الذكاء الاصطناعي الجديد، مما يتطلب رفع مستوى الوعي والرقابة الذاتية لتحقيق العدالة من خلال القيم الإنسانية الفضلى والأخلاقيات العامة التي تتجاوز المصالح الخاصة، وهو ما يجعل تأثير الاطار الأخلاقي أكبر من تأثير القوانين بإعتباره الأساس الذي يوجه الضمير الإنساني ويحكم تصرفات الناس والتزامهم دون إجبار، وللتعامل مع مجتمع يتبنى تقنيات الذكاء الاصطناعي، فلا بد من إيجاد إطار أخلاقي لضبطه والذي يتمثل بمجموعة من المبادئ الأساسية والارشادات والقواعد الأخلاقية التي ينبغي إتباعها لضبط السلوك الإنساني عند بناء او تطوير او إستخدام تقنيات الذكاء الاصطناعي، وبما يتوافق مع التشريعات والقوانين الناظمة ..." .
ومن كل ذلك نخلص الى ان "السياسات والمواثيق الاخلاقية" فهي وإن لم ترقَ الى مرتبة "القانون"، إلا انها تبقى معاييراً قيمية وإرشادات مجتمعية موجهة الى "مبرمجي وصانعي ومطوري ومستخدمي" تقنيات الذكاء الاصطناعي، بل حتى الى المشرعين في البلدان، من أجل رسم ملامح واضحة بناء وتطوير واستخدام هذه التقنيات بأفضل شكل بما يتلائم والإستخدام السليم والآمن الذي يحفظ حقوق الانسان من حيث كرامة الافراد وحرياتهم وخصوصياتهم وأمنهم، ومواجهة أي أضرار قد تسببها هذه التقنيات .
ولعل القول بأن هذه السياسات والمواثيق الخاصة بـ "أخلاقيات الذكاء الاصطناعي"ومن ثم ليس لها "حجية قانونية، بل هي مجرد إرشادات وتوجيهات موجهة الى مبرمجي ومطوري ومستخدمي الذكاء الاصطناعي، ستقودنا الى مسألة مهمةٍ جدا، ألا وهي ان مخالفتها (من الناحية الجنائية) سوف لا تتضمن تجريماً وفقاً لمبدأ (الشرعية الجزائية : لاجريمة ولا عقوبة إلا بنص)،(4) ولكن -مع مبدأ الشرعية الجزائية المشار اليه، والذي بات مبدءً دستورياً وقانونياً يمنع العقاب على فعل او إمتناع لم ينص عليه القانون- مع ذلك، فإن صادف ان مخالفة أحد بنود او مبادئ هذه الوثائق او السياسات الأخلاقية بأنه قد شكّلَ جريمة، كما في "الاعتداء على الخصوصية بارتكاب التجسس من خلال الذكاء الاصطناعي" او "ارتكاب القذف والسب" او غير ذلك مما هو أساساً مجرم في التشريعات العقابية، فاننا سنكون إزاء جرائم (وفقاً لقانون العقوبات وليس وفقاً لهذه السياسات الاخلاقية)، مع ان ذلك سيبقي الإشكالية الأخرى قائمة حول من تحمل مسؤولية هذه الجرائم : هل هو مبرمج هذه التقنيات ام مطورها ام مستخدمها ام كيان الذكاء الاصطناعي نفسه ؟ (وهو الأمر الذي بحثناه مفصلاً في بحثنا الموسوم "الذكاء الاصطنااعي وإشكاليات تحديد المسؤولية الجنائية -دلاراسة مقارنة-")،
اما من الناحية المدنية، فلعل الأمر يبدو أيسر قليلاً من خلال إعمال القواعد العامة في "تعويض المضرور" عن أي ضرر يصيبه، حتى وإن كان من كيانات الذكاء الاصطناعي، مع ان "إشكالية تحديد المتسبب بالضرر، وإشكالية من يتحمل عبئ التعويض ستبقى قائمة في ظل الاتجاه الراجح بأن "كيانات الذكاء الاصطناعي ليس لها شخصية قانونية، ومن ثم فلا جزاء عليها".
الهوامش:
( 1) وهي قوانين كتبها المفكر والكاتب -الروسي الامريكي- والذي نشر عام 1942 قصة قصيرة بعنوان "Runaround" تتمحور أحداثها حول المستقبل والخيال العلمي، وان هنالك إختراع لـ "إنسان آلي" وهو ما يعرف اليوم بـ "الروبوت"، وحدد له ثلاث قوانين أولها عدم جواز إيذاء الآلات للإنسان وثانيها على هذه الآلات طاعة الأوامر البشرية إلا ما تعارض منها مع القانون الأول، والثالث ان تحافظ الآلة على بقائها .
( 2) ولعل من الإشكاليات الأساسية التي تتفرع من هذا الموضوع : ان المخالفات الصادرة عن منتجي او مطوري او مستخدمي تطبيقات الذكاء الاصطناعي لا يمكن وصفها في جميع الأحوال بأنها تمثل جرائم، كون وصف الأخيرة يتطلب إخضاع الفعل المرتكب الى مبدأ "شرعية الجرائم والعقوبات"، ومن ثم فان العديد من المخالفات التي نعدها إنتهاكات أخلاقية في نظرنا قد لا تمثل مخالفات قانونية ومن ثم ستتجرد من الوصف الجرمي . كذلك فان العديد من تلك المخالفات حتى وان كانت جرائماً فعلاً بحسب المبدأ المذكور فان هذا الفرض سيقف عاجزاً امام تجريم "الأفعال التطبيقية والتي تتم بشكلٍ تلقائي من قبل آلات وكيانات الذكاء الاصطناعي" أي من تلك نفسها ومن دون تدخل العنصر البشري، ومنها مثلاً تلك التي تجريها خوارزميات الذكاء الاصطناعي بصورة تلقائية "التطوير الذاتي" والتي تخرج حتى عن نطاق المبرمجين او المطورين لها ؟
(3 ) والواقع فان القانون المدني الأوربي للروبوتات لعام 2017 والمعتمد بقرار البرلمان الأوربي، قد دعا الى تنظيم قواعد أخلاقية بشأن الروبوتات، الى جانب تنظيمهُ للقواعد القانونية .
( 4) وهو مبدأ إستقرت عليه التشريعات الدستورية والقونين العقابية ومواثيق حقوق الانسان، ينظر مثلاً : (المادة "19/ثانياً" من الدستور العراقي لعام 2005)، وفي قوانين العقوبات، ينظر مثلاً : (المادة : "1" من قانون العقوبات اللبناني لسنة 1943) و(المادة "1" من قانون العقوبات السوري لسنة 1949) و(المادة : "3" من قانون العقوبات الأردني لسنة 1960)، و(المادة "1" من قانون الجزاء الكويتي لسنة 1960)، و(المادة "1" من القانون الجنائي المغربي لسنة 1962) و(المادة الأولى من قانون العقوبات الجزائري لسنة 1966)، و(المادة "1" من قانون العقوبات العراقي لسنة 1969)، و(المادة "3" من قانون الجزاء العماني لسنة 2018)، ومع ان قانون العقوبات المصري لسنة 1937 لم ينص على هذا المبدأ، ألا انه مستفاد من احكام الدستور المصري، بما يضمن تحقيق العدالة .