Skip to main content

البيانات والخطابات المفوضية السامية لحقوق الإنسان

تورك: يجب ترسيخ حقوق الإنسان في صميم تكنولوجيات الذكاء الاصطناعي التوليدي

14 شباط/فبراير 2024

أدلى/ت به

مفوّض الأمم المتّحدة السامي لحقوق الإنسان فولكر تورك

في

جامعة ستانفورد، الولايات المتحدة الأميركية

مساء الخير،

إنّه لمِن دواعي سروري أن أتوجّه إليكم اليوم. وأقدم جزيل الشكر إلى مركز حقوق الإنسان والعدالة الدولية وجميع الجهات المشاركة في رعاية جامعة ستانفورد التي تستضيف هذا الحدث.

ومن الطبيعي أن نجتمع هنا اليوم: فلطالما كانت هذه الجامعة رائدة عالميًا في مجال الذكاء الاصطناعي. فعلى سبيل المثال لا الحصر، يدير مختبر الذكاء الاصطناعي في جامعة ستانفورد أبحاثًا مبتكرة منذ العام 1963.

وممّا لا شكّ فيه أنّ الذكاء الاصطناعي بحدّ ذاته ليس بجديد. لكننا نعلم جميعنا أن التحولات السريعة والجارفة التي يشهدها العالم اليوم تطرح تحديات لم يسبق لأحد منا أن واجهها من قبل.

لقد سمعنا جميعنا بالسيناريو البائس بأنّ العالم يندفع مستسلمًا نحو دوامة من الظواهر التي لا يمكن السيطرة عليها ونحو احتمال الانقراض.

وفي المقابل، قد يتمتّع الذكاء الاصطناعي بالقدرة على كشف أسرار علاج للسرطان وإنهاء الاحترار العالمي وإشباع الجياع، أي قد ينطوي على سيناريو إنقاذي. لكن ما بين هذين القطبين المتراوحَيْن بين قتلنا من جهة أو إنقاذنا من جهة أخرى على يد الذكاء الاصطناعي، يقع عالم اليوم، حيث تتحقق وعود الذكاء الاصطناعي في مجموعة واسعة من المجالات، في حين أن أعدادًا كبيرة من الناس تشعر منذ اليوم بآثار الذكاء الاصطناعي المتقدّم غير المسبوقة على حقوق الإنسان، بما في ذلك الذكاء الاصطناعي التوليدي.

تتبادر إلى ذهني في هذا الصدد بعض الأفكار. يروي غوته عبر شخصية فاوست قصة هومونكولوس، وهو إنسان اصطناعي يمثل أفضل ما في العلم والتنوير فيما هو أكثر "إنسانية" في رغباته من خالقه. وفي قصيدة "تلميذ الساحر"، وصف غوته بشكل واضح ما يحدث عندما تُخرج الجني من القمقم وتفقد السيطرة على الأحداث وسيرها. وفي نهاية القصيدة يعود الساحر العجوز، عندما يبدو أن كل شيء قد ضاع، ويفكّ التعويذة، والعِبرة المستخلصة هي أنه لا ينبغي استدعاء السحر إلا عند اتقانه على أكمل وجه. ما الذي يساعدنا إذًا على اتقان الذكاء الاصطناعي؟ ليس من المستغرب أن أشدّد بكلّ حزم على أنّ حقوق الإنسان تشكّل جزءًا لا يتجزّأ من الإتقان والحل.

فحقوق الإنسان تختزل حكمة قديمة يمكن أن ترشدنا في مواجهة تحديات اليوم. كما توفر مجسات في ضبابية الجديد والمجهول. وتروّض الجموح وتُجنب الفوضى. والأهمّ من ذلك كلّه أنّها تشكّل إطارًا معياريًا ملزمًا قانونًا، لا يوجه حريات الجميع في كل مكان فحسب بل يطلق عنانها بالكامل أيضًا، ومن هنا تأتي الضوابط والموازين التي تنص عليها. وهي تتعلق في نهاية المطاف بالقدرة البشرية والكرامة الإنسانية ومكانتنا في نظام الأرض الإيكولوجي. وباختصار، توفر حقوق الإنسان نموذجًا للحوكمة طويل الأمد، وبين الأجيال يضمن مستقبلنا.

وبالتالي، فإن إعادة القدرة البشرية والكرامة الإنسانية إلى محور هذا النقاش أصبح أكثر إلحاحًا من أي وقت مضى.

لأنه في الوقت الحالي، لا يزال الذكاء الاصطناعي التوليدي قيد التطوير والنشر في غياب صورة واضحة لكيفية ضمان السلامة. لا بل يمكنني أن أذهب إلى أبعد من ذلك بعد وأن أؤكّد أنّه من دون مهمة واضحة لما يجب تحقيقه. فكلّ من الشفافية المحدودة والمسؤولية غير الواضحة والاعتماد المفرط على الشركات الخاصة "للقيام بالمناسب" ليس جيدًا بما فيه الكفاية عندما نتعامل مع هذه التكنولوجيا القوية. وفي حين تتدخل الجهات الناظمة لاعتماد حواجز حماية تقي البشرية شرّ هذا التسونامي الجارف، تفشل الدول والشركات إلى حد كبير في تبني مجموعة القوانين الوحيدة الشاملة التي لدينا لمواجهة هذه التحديات الهائلة، ألا وهي الإطار الدولي لحقوق الإنسان.

ويوفر إطار حقوق الإنسان الأساس الذي نحتاج إليه بشكل عاجل للابتكار وتسخير إمكانات الذكاء الاصطناعي.

كما يمكنه في موازاة ذلك أن يمنع ويخفف من المخاطر الكثيرة القائمة وأن يحول دون أن يصبح الذكاء الاصطناعي التوليدي قناة تساهم في تفشي انتهاكات حقوق الإنسان والاعتداءات والتمييز والإقصاء على نطاق واسع.

وتجسد حقوق الإنسان فكرة وجوب حماية الناس من بعض الانتهاكات التي ترتكبها حكوماتهم، وكذلك الأفراد والهيئات الخاصة والشركات.

ولتوضيح ما أعنيه، اسمحوا لي أن أشرح لكم بعضًا من هذه الحقوق المهمّة لموضوعنا.

الحق في العمل.

ينطوي الذكاء الاصطناعي التوليدي على إمكانية إحداث تغيير جذري في الأسواق الاقتصادية وأسواق العمل. لقد سبق وشهدنا استبدال الإبداع البشري في مختلف المجالات بمحتوى من صنع الذكاء الاصطناعي التوليدي. وسيبرز عالم جديد من العمل والترفيه واستخدام الوقت. ما هو معنى الحياة وطعمها لأولئك الذين طردوا من عملهم، وأولئك الذين يشعرون بأنهم مستبعدون ومهملون؟ كيف نستعد لمواجهة هذا الواقع؟ ماذا يعني أن نُحرَم من الحماية الاجتماعية الشاملة، فتتفاقم بالتالي أوجه عدم المساواة وتتفكّك المجتمعات بشكل خطير نتيجة لذلك؟

والحقّ في عدم التمييز، فنماذج الذكاء الاصطناعي التوليدي تركّز على مواد تحتوي حتمًا على أفكار الكراهية والتمييز التي تصيب مجتمعاتنا، وتنطق بمحتوى عنصري أو معادٍ للنساء بشكل عميق، وتردد مجموعة من المفاهيم الخاطئة والمغالطات والأكاذيب المباشرة المتفشية في جميع المجتمعات، وتؤجج الكراهية. كيف سنحمي الأصوات العامة التي تدفع باتجاه المناقشات النقدية، تلك التي تمثّل الأقليات، والمثليات والمثليين ومزدوجي الميل الجنسي ومغايري الهويّة الجنسانية وأحرار الهوية والميول الجنسية وحاملي صفات الجنسَيْن وأفراد الفئات الجنسية الأخرى والنساء والأطفال؟ في حال لم يتم إيلاء الاهتمام الكافي لاحتياجات هذه الفئات المحددة المعرضة للخطر، فإننا نساهم في تفاقم العلل الأساسية في مجتمعاتنا.

أو الحقّ في الوصول إلى المعلومات.

في هذه السنة التي تشهد العديد من الانتخابات، لا سيّما في 70 بلدًا في جميع أنحاء العالم، فإن مخاطر البروباغاندا القوية التي يتم إنتاجها على نطاق واسع وبأسعار زهيدة وحملات التضليل المنظمة، عالية. وبإمكان الآثار المباشرة، بما في ذلك الكراهية والتمييز ونزع الشرعية عن الجهات السياسية الفاعلة ومؤسسات الدولة، أن تقوض بشدة مبادئ الديمقراطيات الفاعلة. كيف نضمن أن المستبدين والشعبويين والمتطرفين، أي أعداء "المجتمع المفتوح" والنظام القائم على حقوق الإنسان، لن يسيطروا على الأرض، ويشوشوا عقول الناس وقلوبهم فيحوّلوا كل شيء إلى بروباغاندا مثالية ودائمة ومولدة تلقائيًا، لا تخدم سوى مصالح قلة قليلة؟

أو الحقّ في الخصوصية.

ما زالت القدرة على إنتاج ونشر المعلومات الزائفة العالية الجودة على نطاق واسع وباستثمارات رمزية في بداياتها، ومع ذلك فقد سبق ورأينا أنّ هذه الظاهرة قد تخلّ بالانتخابات وتخدع الناس وتبثّ معاداة النساء والكراهية. كيف سنمنع ظاهرة الشبيه (Doppelgänger) التي وصفتها نعومي كلاين بشكل مرعب؟ كيف سننجو من مستقبل أورويلي من السيطرة على العقل والمراقبة في كل مكان؟ كيف سنضمن ألا تتفكك البشرية أكثر فأكثر فتنقسم بين من يملكون الأشياء ومن لا يملكونها، لا سيما في ضوء الفجوة الرقمية الهائلة؟

تتبادر حقوق أخرى إلى ذهني في هذا السياق، مثل الحق في التحرر من الجوع، والحق في مستوى معيشي لائق، والحق في الضمان الاجتماعي والسكن. وسيكون من الضروري للغاية أن نفهم كيف يمكن للذكاء الاصطناعي أن يُعمِل هذه الحقوق أو أن يهدّدها على حدّ سواء.

أيّها الزملاء والأصدقاء الأحباء،

في ظل هذه الخلفية، ماذا يعني ذلك عمليًا بالنسبة إلى الذكاء الاصطناعي التوليدي؟

أولاً، على الدول والشركات أن تستخدم إطار حقوق الإنسان كنقطة مرجعية أولى في تنظيم الذكاء الاصطناعي التوليدي وحوكمته.

ثانيًا، يجب أن يوجّه هذا الإطار تصميم تكنولوجيات الذكاء الاصطناعي التوليدي وتطويرها، بحيث تدمج حقوق الإنسان في جميع مراحل دورة حياتها.

كما يتطلّب تعقيد الذكاء الاصطناعي نهجًا مدروسًا وحذرًا. وعلينا أن نتساءل كيف يؤثّر على حقوق الأفراد والمجتمعات المحلية المختلفة.

لا هنا في كاليفورنيا فحسب بل في كل مكان آخر.

ما الذي يعنيه ابتكار الذكاء الاصطناعي وآثاره على حقوق الإنسان بالنسبة إلى مراهق في لاغوس، أو أستاذ في بوينس آيرس، أو طفل في بانكوك؟ أو للعالقين بشكل مروع في 55 نزاعًا عنيفًا تقريبًا حول العالم؟

إن الذكاء الاصطناعي التوليدي الذي يحترم الحقوق يعني الإصغاء إلى أصوات أولئك الذين من المحتمل أن يتأثروا به، سواء كان ذلك نحو الأفضل أو الأسوأ. ما قد يعيد تركيز نهجنا في الذكاء الاصطناعي على ضمان أن ينفع الجميع من دون أي تمييز. لأنّه يجب أن يبقى الناس محور التكنولوجيا تمامًا كما هم محور حقوق الإنسان.

ويجب أن نواصل طرح الأسئلة الصعبة. كيف نحمي حرية التعبير وفي نفس الوقت نمنع خطاب الكراهية والتضليل؟ كيف نحمي الحقوق والملكية الفكرية للفنانين والموسيقيين والمؤلّفين من دون التعدي على حقنا في الوصول إلى المعلومات؟

وعلى الرغم من أهمية الاعتبارات الأخلاقية في هذا النقاش، إلا أننا نحتاج إلى حقوق الإنسان، وإلى إطارها العالمي الملزم، كي نخطو خطوة إلى الأمام نحو حلول ملموسة وعملية ونتجنب في أسوأ الحالات المساءلة الجنائية عن انتهاكات حقوق الإنسان.

تنخرط مفوضيتنا بشكل مباشر مع بعض الشركات الرائدة في إنتاج الذكاء الاصطناعي التوليدي. ونهدف في هذا الصدد إلى دعمها في ترجمة حقوق الإنسان إلى واقع ملموس أثناء تطوير أدواتها.

وفي موازاة ذلك، دعَونا أيضًا إلى التوقف مؤقتًا عن استخدام الذكاء الاصطناعي في المجالات التي تنطوي على مخاطر عالية تهدّد حقوق الإنسان، ومنها إنفاذ القانون والقضاء، إلى أن يتم اعتماد ما يكفي من الحواجز الوقائية. كما حثثنا على إدماج حقوق الإنسان بشكل أكبر في عمليات وضع المعايير التقنية، حيث سيتم اتخاذ قرارات حاسمة بشأن تطبيقات الذكاء الاصطناعي واستخدامه.

ما نعرفه هو أن الإبحار في البحر المجهول الهائل الذي يشكّله الذكاء الاصطناعي التوليدي يتطلب على وجه الاستعجال اتخاذ الإجراءات التالية:

نحن بحاجة إلى سلوك تجاري مسؤول.

نحن بحاجة إلى المساءلة عن الأضرار.

نحن بحاجة إلى وصول ضحايا هذه الأضرار إلى سبل الانتصاف.

لكن وقبل كل شيء، نحتاج إلى حوكمة سليمة للذكاء الاصطناعي، ترتكز بحزم على حقوق الإنسان، بغية التخفيف من وقوع هذه الأضرار في المقام الأول.

والشركات مسؤولة عن المنتجات التي تتسابق لطرحها في الأسواق. وعليها أن تبذل المزيد من الجهود من أجل تحديد المخاطر المباشرة الواضحة ومعالجتها، وتعزيز الشفافية في ما يتعلق بمناهج السلامة ومصادر بيانات التدريب.

كما يجب على الشركات، تمامًا كما الدول، أن تبذل العناية الواجبة لمراعاة حقوق الإنسان بشكل منهجي في ما يتعلق بأنظمة الذكاء الاصطناعي التي تصممها أو تطورها أو تنشرها أو تبيعها أو تحصل عليها أو تشغّلها. ويجب أن تبقى تقييمات الأثر على حقوق الإنسان بصورة منتظمة وشاملة، من العناصر الأساسية لهذه العملية.

والحقيقة هي أنّنا نملك أصلًا الأدوات اللازمة لتوجيه الحكومات والقطاع الخاص في التقدم نحو الذكاء الاصطناعي القائم على حقوق الإنسان.

فمنذ العام 2011، وفّرت مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان مبادئ متينة تتّبعها كلّ من الدول والشركات، وهي قادرة اليوم على إرساء الأساس لتطوير الذكاء الاصطناعي المسؤول. كما أنتج مشروع الأعمال التجارية وحقوق الإنسان والتكنولوجيا الذي أطلقته مفوضيّتنا سلسلة من التوصيات والأدوات والمبادئ التوجيهية، تم تطويرها بمشاركة فعالة من الشركات وأصحاب المصلحة الآخرين، وتتناول كيفية تطبيق المبادئ التوجيهية لمنع ومعالجة مخاطر حقوق الإنسان المتعلقة بالتكنولوجيات الرقمية. كما قدم مجلس الأمم المتحدة الاستشاري الرفيع المستوى المعني بالذكاء الاصطناعي، الذي أُنشئ مؤخّرًا، توصيات أولية بشأن حوكمة الذكاء الاصطناعي. ومع توجهنا إلى قمة القادة من أجل المستقبل المنعقدة في نيويورك في أيلول/ سبتمبر، سيشكّل الاتفاق الرقمي العالمي مسارًا آخر بالغ الأهمية للمضي قدمًا.

أيّها الزملاء والأصدقاء الأحباء،

خطت جامعة ستانفورد خطوات عملاقة على مدى العقود الماضية في تسخير إمكانات الذكاء الاصطناعي. ويعمل برنامج AI4ALL (الذكاء الاصطناعي للجميع) والذكاء الاصطناعي من أجل الصالح الاجتماعي على تعزيز التنوع وتدريب مهندسي الذكاء الاصطناعي على دمج أهداف العدالة الاجتماعية عند بناء التكنولوجيا. كما يفيد مركز الذكاء الاصطناعي والطب والتصوير المرضى من خلال عمله الرائد في مجال الصحة والابتكار.

أنتم كطلاب تبنون مستقبلكم. وفي مجال الذكاء الاصطناعي، أنتم أيضًا تؤدّون دورًا في بناء مستقبل البشرية.

وكي تعود التكنولوجيا بالنفع على البشرية جمعاء، نحتاج إلى اليقظة العميقة وصوت العقل والإحساس العميق بالمسؤولية بين الأجيال.

وتقوم حقوق الإنسان هذا المقام بالضبط.

أصواتكم هنا في سيليكون فالي، مركزِ قوة الابتكار الرقمي والتكنولوجي، مهمة أكثر مما تعتقدون في توجيهنا بعيدًا عن المخاطر التي نناقشها اليوم. لأنّ التقدم في هذا القطاع نحو سلوك تجاري مسؤول يرتكز على حقوقنا وحرياتنا يعود بفوائد بعيدة الأثر وطويلة الأمد للجميع في جميع أنحاء العالم.

ومع ترسيخ مبادئ حقوق الإنسان، أعتقد أنّه بإمكاننا أن نستفيد بكلّ أمان من الفرص المذهلة التي يتيحها الذكاء الاصطناعي وأن نواصل السعي نحو الإبداع والابتكار وتقديم أفضل ما يمكن للناس.

آمل أن نلتزم جميعنا بهذا الطموح.

وشكرًا.

الصفحة متوفرة باللغة: