هل الذكاء الاصطناعي أداة أم سلاح

لقد كانت القدرات الهائلة التي يجلبها الذكاء الاصطناعي للعالم لا يمكن تصورها للأجيال الماضية.

ولكن حتى عندما نتعجب من القوة المذهلة التي توفرها هذه التقنيات الجديدة ،

فإننا نواجه أسئلة معقدة وعاجلة حول توازن المنفعة والضرر.

 

عندما يفكر معظم الناس فيما إذا كان الذكاء الاصطناعي جيدًا أو شريرًا ،

فإن ما يحاولون فهمه بشكل أساسي هو ما إذا كان الذكاء الاصطناعي أداة أو سلاحًا.

بالطبع ، كلاهما – يمكن أن يساعد في تقليل الكدح البشري ، ويمكن استخدامه أيضاً لصنع أسلحة ذاتية.

في كلتا الحالتين ، تتطرق المناقشات التي تلت ذلك إلى العديد من الأسئلة التي لم يتم حلها وهي حاسمة لتمهيد الطريق إلى الأمام.

 

مطارق و بنادق

عند التفكير في القدرات المزدوجة للذكاء الاصطناعي ، تعد المطارق والبنادق تشبيهًا مفيدًا. بغض النظر عن الأغراض المقصودة ، يمكن استخدام كل من المطارق والأسلحة كأدوات أو أسلحة. من المؤكد أن تصميمهم له علاقة كبيرة بهذه الفروق – لا يمكنك تثبيت سياج المنزل بعقب البندقية ولكن إلى حد كبير ما يهم هو من يمتلك الشيء ، وما يخططون للقيام به لذلك في الذكاء الاصطناعي ، ينطبق استعارة البندقية والمطرقة بدقة على فئتين: الأسلحة العسكرية المستقلة وأتمتة العمليات الآلية (RPA).

 

يمكن أن تكون احتمالية استخدام أسلحة عسكرية مدعومة بالذكاء الاصطناعي مرعبة. مثل جميع التطورات في تكنولوجيا الأسلحة ،

فإن الغرض الأساسي منها هو قتل الناس بشكل أكثر كفاءة ، ظاهريًا مع تقليل الإصابات من جانبنا. على مر القرون ،

أصبح البشر على مسافة متزايدة – حرفيا ومجازيا – من التأثير المباشر لأسلحتهم.

يمثل التقدم من السيوف إلى الأقواس والسهام ، والبنادق ، والبنادق ، ومدافع الهاون ، وقاذفات القنابل ،والصواريخ ، والطائرات بدون طيار الآن تقدمًا تكنولوجيًا أبعدنا كثيرًا عن خصومنا.

 

لكن البشر كانوا دائمًا هم الذين يطلقون السهم ، أو يسحبون الزناد ، أو يضغطون على الزر. والسؤال الآن هو ما إذا كان ينبغي إعطاء سلطة صنع القرار في آلة القتل على من يعيش ومن يموت. هذا خط جديد يجب تجاوزه – ويكرر الحاجة إلى تصميم ذكاء اصطناعي داخل الحلقة.

 

عزاء صغير: من بين الأشخاص الذين يبدو أنهم أكثر اهتمامًا بشبح الأسلحة المستقلة وأكثر الطرق الأخلاقية لمعالجتها هم أعضاء في وزارة الدفاعالأمريكية (DoD).

في حدث في وادي السيليكون في أبريل 2019 ،التمس مجلس الابتكار الدفاعي (DIB) الحكمة حول الأخلاق والأسلحة المستقلة من مجموعة من التقنيين والأكاديميين والأعضاء العسكريين المتقاعدين والناشطين.

في الآونة الأخيرة ، قدم DIB إرشادات إلى DoD حول مبادئ الأخلاق من حيث صلتها بأنظمة الذكاء الاصطناعي القتالية وغير القتالية ، وهو أمر يمكن أن يساعده رئيس مجلس إدارة DIB والرئيس التنفيذي السابق لشركة Google Eric Schmidt في أن يؤدي إلى سياسة دولية للذكاء الاصطناعي.

 

على النقيض من التطبيقات العسكرية للذكاء الاصطناعي ، فإن RPA تشبه المطرقة بقوة من الواضح أنها أداة.

إنها تعمل على أتمتة المهام الدنيوية والمستهلكة للوقت ، وتحرير العمال البشريين لتكون أكثر كفاءة وقضاء المزيد من الوقت في العمل الحاسم.

يمكن القول إن نموها السريع وفرصتها الضخمة في السوق جزئياً لأنه بدلاً من تعطيل الصناعات القديمة وإيقافها ،

كما تفعل الابتكارات التكنولوجية في كثير من الأحيان ، يمكن أن يمنحها حياة جديدة ، مما يساعدها على البقاء قادرة على المنافسة وذات صلة.

 

بالنسبة للشركات – وحتى العمال والفرق الفردية – يمكن أن يكون RPA مفوضًا. لكن الجانب السلبي هو أن الأتمتة غالبًا ما تتجنب الوظائف الحالية. اعتمادًا على السياق المحدد ، يمكن للمرء أن يجادل بأن الشركة يمكن أن تسلح الأتمتة لقوة عامليتها ، تاركًا حشودًا من العمال تتأرجح بمهاراتهم التي حصلوا عليها بشق الأنفس وتجربة عفا عليها الزمن فجأة.

 

في الواقع ، هناك قلق من أنه في هذه الدورة الخاصة من الابتكار – القضاء على الوظائف أدى الى إنشاء وظائف جديدة – يتعرض الكثيرون لخطر التخلف عن الركب بينما يصبح الأغنياء أكثر ثراءً. الأكثر ضعفا تشمل أولئك الذين يعملون حاليا في وظائف منخفضة الأجر والأشخاص الملونين. يتم التعبير عن المخاوف في تقارير من مجلة الأكاديمية الوطنية للعلوم (PNAS) ، MIT ، PwC Global ، McKinsey ، ومعهد AI Now.

هذه هي التحديات التي دفعت جزئيًا أحداث BLUEPRINT الخاصة بشركة VentureBeat ، والتي تبحث في صناعة التكنولوجيا بين السواحل والتحديات الفريدة فيها.

تثار مسألة الأتمتة بشكل متكرر في هذه الأحداث. تتطلب العديد من الوظائف الجديدة التي ستظهر بعد الأتمتة معرفة ما يصل إلى التجارة ، بدلاً من الحصول على شهادة في علوم الكمبيوتر. في بعض الأحيان قد تكون هذه الوظائف في نفس المجال ؛ على سبيل المثال ، يمكن للشاحنات المستقلة أن تحل محل سائقي الشاحنات ، ولكن سيظل هناك حاجة إلى وجود شخص على متن السفينة يتعامل مع اللوجستيات والاتصالات ، وهي وظيفة قد يتمكن سائق الشاحنة السابق من الانتقال إليها مع كمية متواضعة من التدريب الجديد. يمكن لجهود واسعة النطاق لإعادة التأهيل والمهارات أن تساعد العمال النازحين على الارتقاء إلى وظيفة أفضل مما كانوا عليه من قبل.

ذهابا وإيابا يذهب فرق القوة. الأتمتة أداة أم سلاح ،

انها أداة.

 

 

في الوسط الغامض

بين التطرف في الأتمتة المساعدة للعمال والطائرات المسيرة القاتلة تكمن تقريبًا جميع تقنيات الذكاء الاصطناعي الأخرى ، والوسط غامض ، على أقل تقدير. هذا هو المكان الذي يصبح فيه النقاش حول الذكاء الاصطناعي أكثر صعوبة – ولكنه أيضًا يركز بشكل أكبر.

أكثر من أي تقنية أخرى للذكاء الاصطناعي ، أظهر التعرف على الوجه بوضوح كيف يمكن تحريف أداة الذكاء الاصطناعي إلى سلاح.

صحيح أن هناك العديد من الاستخدامات المفيدة لتقنية التعرف على الوجه. يمكن استخدامه لتشخيص الاضطرابات الوراثية والمساعدة في الكشف عن الاتجار بالبشر المحتمل. يمكن أن يستخدمه المسؤولون عن القانون لتعقب وإلقاء القبض على إرهابي بسرعة أو كما هو الحال مع برنامج المراقبة بالفيديو التابع لإدارة شرطة ديترويت ، بسهولة تحديد المشتبه بهم. هناك أيضًا استخدامات محايدة تمامًا ، مثل استخدامها لزيادة تجربة تسوق غنية عبر الإنترنت.

ولكن حتى بعض تطبيقات الذكاء الاصطناعي هذه لها جانب سلبي مقلق. في ديترويت ، على الرغم من أن قائد الشرطة يبدو مبدئيًا وشفافًا ومدركًا للإساءات المحتملة قدر الإمكان ، إلا أن النظام جاهز للإساءة. لقد أساءت إدارة شرطة نيويورك بالفعل استخدام تقنية التعرف على الوجه لإلقاء القبض على مشتبه به ، على سبيل المثال. حتى لو لم يتم إساءة استخدام مثل هذا النظام ، على الرغم من أن الشرطة تستخدمه بشكل قانوني فقط ، فقد يظل المواطنون ينظرون إليه كسلاح. يمكن لهذا التصور وحده أن يقوض الثقة ويسبب للناس العيش في خوف.

يعد استخدام التعرف على الوجه في عمل الشرطة والأحكام ، ولكن أيضًا عبر مجالات متنوعة مثل التوظيف ، مشكلة عميقة. نحن نعلم أن تقنية التعرف على الوجه غالبًا ما تكون أقل دقة مطبقة على النساء والأشخاص الملونين ، على سبيل المثال ، بسبب النماذج التي تم إنشاؤها بمجموعات بيانات ضعيفة. قد تحتوي البيانات أيضًا على تحيزات يتم تكبيرها فقط عند تطبيقها في سياق الذكاء الاصطناعي.

 

وهناك اعتراضات أخلاقية معقولة على وجود برمجيات التعرف على الوجه ، الأمر الذي أدى بالعديد من المدن الأمريكية إلى حظر التكنولوجيا. طالب السناتور الرئاسي الديمقراطي بيرني ساندرز (I-VT) بفرض حظر على استخدام الشرطة لبرامج التعرف على الوجه.

ما يبعث على القلق الشديد هو الانتهاكات المقلقة للغاية للتعرف على الوجه من قبل الحكومات ، مثل اضطهاد مسلمي الأويغور في الصين ، والذي أصبح ممكنًا جزئيًا بسبب أبحاث Microsoft ، والتي انتقدت الشركة علنًا بسببها. لكن مايكروسوفت رفضت أيضًا بيع تقنية التعرف على الوجوه إلى سلطات تطبيق القانون في كاليفورنيا وإلى إدارة الهجرة والجمارك الأمريكية (ICE). أمازون مسجلة تقول إنها ستبيع تقنية Rekognition للتعرف على الوجه إلى أي إدارة حكومية (والتي من المحتمل أن تشمل ICE) طالما أنها تتبع القانون.

تستدعي جميع الجالات المذكورة أعلاه تساؤلات حول المسؤولية التي تتحملها شركات التكنولوجيا في بيع تقنية التعرف على الوجه للحكومات.

 

في جلسة في Build 2019 ، قدم Tim O’Brien ، المدير العام لبرامج الذكاء الاصطناعي في Microsoft ، عرضًا تقديميًا للشرائح حول كيفية عرض الشركة لأخلاقيات الذكاء الاصطناعي. كان الأمر مطمئنًا في الغالب ، لأنه أظهر أن Microsoft كانت تفكر جادًا في هذه المشكلات وقد وضعت مبادئ توجيهية داخلية مبدئية. ولكن خلال جلسة الأسئلة والأجوبة ، طُلب من أوبراين مناقشة المشكلات المتعلقة بالمسؤولية والتنظيم فيما يتعلق بشركة مثل Microsoft.

قال: “هناك أربع مدارس فكرية”. لإعادة صياغة ما وضعه ، يمكن للشركة اتباع أحد الأساليب التالية:

  1. نحن مزود منصة ، ولا نتحمل أي مسؤولية (عما يفعله المشترون بالتكنولوجيا التي نبيعها لهم)
  2. سنقوم بتنظيم عمليات الأعمال الخاصة بنا والقيام بالأشياء الصحيحة
  3. سنفعل الأشياء الصحيحة ، لكن الحكومة بحاجة إلى المشاركة ، في شراكة معنا ، لبناء إطار تنظيمي
  4. يجب القضاء على هذه التكنولوجيا

وقال إن مايكروسوفت تؤيد النهج الثالث. وقال “اعتمادًا على من تتحدث معه ، سواء في القطاع العام أو العملاء أو نشطاء حقوق الإنسان – اعتمادًا على … الأطراف المعنية التي تتحدث معها ، سيكون لديهم وجهة نظر مختلفة”. “لكننا نواصل دفع هذه الصخرة إلى أعلى في محاولة لتثقيف صناع السياسة حول الأهمية”.

 

من ناحية ، هذا موقف براغماتي ومسؤول تتخذه شركة. ولكن من ناحية أخرى ، هل يعني ذلك أن Microsoft لن تفكر حتى في إمكانية عدم إنشاء تقنية لمجرد أنها تستطيع؟ لأنه إذا كان الأمر كذلك ، فإن الشركة تزيل نفسها من مناقشة حاسمة حول ما إذا كان يجب أن توجد بعض التقنيات على الإطلاق. لا تحتاج شركات التكنولوجيا إلى المشاركة فقط في تنظيم التقنيات التي تنشئها ؛ إنهم بحاجة إلى التفكير فيما إذا كانت بعض التقنيات يجب أن تجد طريقها للخروج من مختبر البحث والتطوير في المقام الأول.

 

هل انتهت الرحلة ؟

نظرًا لأن تقنيات الذكاء الاصطناعي يمكن أن تبدو ضخمة جدًا وقوية وغير قابلة للدحض ، فإن التحديات التي تقدمها يمكن أن تبدو مستعصية على الحل. لكنهم ليسوا كذلك. وجهة النظر المتشائمة هي أننا محكوم علينا بأن نكون منغمسين في سباق تسلح مع تشعبات جيوسياسية حادة لا محالة. لكننا لسنا كذلك.

من الناحية الهيكلية ، واجهت البشرية دائمًا هذه الأنواع من التحديات ، وكتيب التشغيل هو نفسه كما كان في أي وقت مضى. لقد وجد الممثلون السيئون دائمًا وسيجدون دائمًا طرقًا لتسليح الأدوات.

يتحتم على الجميع الدفع وإعادة التوازن. بالنسبة لتحديات الذكاء الاصطناعي اليوم ، ربما يكون أفضل مكان للبدء هو مع شركة أوبو إتزيوني لأداء ممارسي الذكاء الاصطناعي – وهي صناعة تتولى الذكاء الاصطناعي في مهنة الطب حيث يقسمون قسم المهنة . يتضمن القسم تعهدًا بوضع مخاوف الإنسان على المخاوف التكنولوجية ، لتجنب لعب الإله (خاصة عندما يتعلق الأمر بقدرات الذكاء الاصطناعي التي يمكن أن تقتل) ، واحترام خصوصية البيانات ، ومنع الضرر كلما أمكن ذلك.

 

الكتاب الأخير الأدوات والأسلحة: الوعد ومخاطر العصر الرقمي ، الصادر من قبل رئيس مايكروسوفت براد سميث وكبير مديري العلاقات الخارجية والاتصالات كارول آن براون ، يعيد النظر في لحظات فاصلة في تاريخ الشركة ويصف المشاكل والحلول حولها . منظور سميث فريد من نوعه ، لأن منهجه كان أقل حول التقنيات نفسها في حد ذاته وأكثر حول المخاوف القانونية والأخلاقية والمعنوية والعملية.

إحدى الحكايات في الأدوات والأسلحة التي تبرز هي عندما واجهت Microsoft مشكلات قانونية دولية مع مراكز البيانات الخاصة بها في أيرلندا. في الأساس ، كانت المشكلة تتعلق بالسيادة الوطنية والبيانات. ماذا يحدث عندما يريد بلد ما أن يجبر شركة تقنية على تسليم البيانات المخزنة في بلد آخر؟ كتب سميث “في بعض النواحي ، إنها ليست قضية جديدة”. لقرون ، اتفقت الحكومات حول العالم على أن سلطة الحكومة ، بما في ذلك أوامر التفتيش ، توقفت عند حدودها. كتب سميث عن ظهور “معاهدات المساعدة القانونية المتبادلة” (MLATs) التي سمحت بتسليم المجرمين والوصول إلى المعلومات عبر الحدود الوطنية – وهي طريقة تمكن البلدان من احترام سيادة بعضها البعض أثناء معالجة المسائل ذات الأهمية ، مثل العدالة الجنائية. لكن الأشخاص الذين صاغوا MLATs منذ فترة طويلة لم يكن لديهم أي مفهوم للحوسبة السحابية.

مع تخزين البيانات في السحابة – في مراكز البيانات الموجودة في أيرلندا على سبيل المثال على خوادم مملوكة لشركة Microsoft – تم تفكيك مفهوم الحدود الدولية والوصول إلى تلك البيانات وتركها مفتوحة على نطاق واسع للانتهاكات الخطيرة. كتب سميث عن الكيفية التي ستحاول بها وكالة إنفاذ القانون تجاوز قانون المساعدة القانونية المتبادلة من خلال خدمة شركة تقنية تقع في نطاق ولايتها القضائية ، مطالبة بالبيانات التي تم تخزينها عبر المحيط في بلد آخر. فجأة ، تم القبض على شركات التكنولوجيا بين الحكومات ذات السيادة.

 

العديد من القوانين التي تناولت جوانب المشكلة ذات الصلة ولكنها ليست قابلة للتطبيق بدقة ، مثل قوانين التنصت ، كانت ببساطة غير كافية لمعالجة هذا التقدم التكنولوجي الجديد. وضع المشرعون في نهاية المطاف قانون توضيح الاستخدام القانوني لما وراء البحار للبيانات (CLOUD) ، الذي كتب سميث ، “يوازن بين الوصول الدولي لأوامر التفتيش التي تريدها وزارة العدل مع الاعتراف بأن شركات التكنولوجيا يمكن أن تذهب إلى المحكمة لتحدي أوامر الاعتقال عندما يكون هناك صراع القوانين “. لكن الأمر استغرق سنوات من العمل. قضيتين رئيسيتين تتعلقان بشركة Microsoft ؛ مسؤولون من أربع حكومات على الأقل في ثلاث قارات مختلفة ؛ وجميع الفروع الثلاثة للحكومة الأمريكية ، بما في ذلك المحكمة العليا للولايات المتحدة ورئيسان لإنجازها.

الحوسبة السحابية هي مثال قوي على ما كان مشكلة جديدة مستعصية على الحل. كان على شركات مثل Microsoft ، إلى جانب حكومات دول متعددة ، أن تتعامل مع إعادة التفكير في كيفية تأثير الحوسبة السحابية على الحدود الدولية ، وسلطات إنفاذ القانون ، وملكية الممتلكات وحقوق الخصوصية للمواطنين الأفراد.

على الرغم من أن ملحمة CLOUD Act كانت معقدة وممتدة بشكل خاص ، إلا أن التحدي الأساسي المتمثل في معالجة المشاكل الجديدة الناتجة عن التقدم التكنولوجي يظهر عدة مرات في جميع أنحاء الأدوات والأسلحة ، حول الأمن السيبراني ، والإنترنت ، ووسائل الإعلام الاجتماعية ، والمراقبة ، وثغرات الفرص التي تسبب (والتي يمكن حلها) بواسطة تقنيات مثل النطاق العريض والذكاء الاصطناعي. في كتاب سميث ، كانت عملية إيجاد الحلول متشابهة دائمًا. تطلب من جميع أصحاب المصلحة التصرف بحسن نية. كان عليهم الاستماع إلى المخاوف والاعتراضات ، وكان عليهم العمل معًا ، غالبًا مع الشركات المنافسة – وفي كثير من الحالات ، مع حكومات دولية متعددة – لصياغة قوانين ولوائح جديدة. في بعض الأحيان تتطلب الحلول المزيد من الابتكارات التكنولوجية.

من غير المستغرب أن تبدو Microsoft وكأنها مواتية تمامًا في ذكريات سميث في الأدوات والأسلحة ، ولا يوفر النص كتاب تشغيل مثاليًا بأي وسيلة. لكنها تعمل بمثابة تذكير بأن عالم التكنولوجيا تعامل مع نفس النوع الأساسي من المشاكل مرارًا وتكرارًا ، وأن الناس قد عملوا بجد وعناية لإيجاد حلول.

يتطلب التعامل مع الذكاء الاصطناعي ووعوده ومشاكله غضبًا أخلاقيًا وإرادة سياسية وتصميمًا مسؤولًا وتنظيمًا دقيقًا ووسيلة لمساءلة الأقوياء. يحتاج أصحاب السلطة – في الذكاء الاصطناعي ، في المقام الأول أكبر شركات التكنولوجيا في العالم – إلى التصرف بحسن نية ، وأن يكونوا مستعدين للاستماع ، وفهم كيف ومتى يمكن أن تشعر الأدوات بأنها أسلحة للناس ، ولديهم القوة الأخلاقية للقيام بالشيء الصحيح .

 

لقد كتبت هذا المقال بالاستعانة بكتاب

 Tools and Weapons: The Promise and the Peril of the Digital Age

 by Microsoft president Brad Smith and Carol Ann Browne

اعطنا رأيك عبر التقييم
[العدد: 0 المعدل: 0]