المحتوى الرئيسى

خدع تهدد مستقبل الذكاء الاصطناعي

04/17 21:25

خدع تهدد مستقبل الذكاء الاصطناعي

هذه روابط خارجية وستفتح في نافذة جديدة

شارك هذه الصفحة عبر فيسبوك

شارك هذه الصفحة عبر تويتر

شارك هذه الصفحة عبر Messenger

شارك هذه الصفحة عبر Messenger

شارك هذه الصفحة عبر البريد الالكتروني

هذه روابط خارجية وستفتح في نافذة جديدة

شارك هذه الصفحة عبر البريد الالكتروني

شارك هذه الصفحة عبر فيسبوك

شارك هذه الصفحة عبر Messenger

شارك هذه الصفحة عبر Messenger

شارك هذه الصفحة عبر تويتر

شارك هذه الصفحة عبر Google+

شارك هذه الصفحة عبر WhatsApp

شارك هذه الصفحة عبر LinkedIn

هذه روابط خارجية وستفتح في نافذة جديدة

Image caption علماء يشعرون بالقلق إزاء مستقبل الذكاء الاصطناعي

لا يزال أمام الآلات شوط طويل لترقى إلى مستوى البشر في التعلم من الخبرات السابقة، وهذا الأمر يمثل مخاطر محتملة لا تقتصر على الخصوصية والأمن فحسب، بل تتعداهما إلى أمور أخرى.

ما حدث في هذه الحالة هو أن هذا الملصق الصغير جعل اللافتة تبدو واضحة للسيارة وكأنها شيء مختلف تماما عن لافتة التوقف.

ربما قد تجد هذا الأمر بعيد الاحتمال، ولكن الكثير من الأبحاث أثبتت أن الذكاء الاصطناعي يسهل خداعة بنفس الطريقة، بحيث يرى الأشياء بصورة تختلف كليا عن تلك التي يراها بها البشر.

وفي ظل هيمنة الخوارزميات، التي يمكن للآلات التعلم منها، على طرقنا وإدارة أموالنا وأنظمة الرعاية الصحية، يأمل علماء الكمبيوتر أن يتوصلوا إلى وسائل تمكنهم من حماية الخوارزميات من الهجمات المتوقعة من هذا النوع، قبل أن يحاول شخص ما خداعها بالفعل.

يقول دانييل لود، الأستاذ المساعد بقسم علوم الكمبيوتر والمعلومات بجامعة أوريغون: "يشعر العاملون في مجال التعلم الآلي والذكاء الاصطناعي بالقلق حيال عمليات الاحتيال بسبب زيادة الاعتماد على هذه الخوارزميات".

ويضيف لوود: "يمكن أن تصل إلى بريدك الإلكتروني الرسائل المزعجة غير المرغوب فيها أو تتعرض بعض رسائل بريدك للحجب، لكن هذا ليس نهاية العالم. وإذا كنت تعتمد كليا على نظام الرؤية في السيارات ذاتية القيادة لمعرفة المكان الذي تتجه إليه وتفادي الاصطدام بأي شيء، فإن المخاطر ستكون أعلى."

ويرجع السبب في تعطل الآلة الذكية أو تعرضها للقرصنة، إلى الطريقة المختلفة التي ترى بها خوارزميات التعلم الآلي العالم من حولها. ومن هنا قد ترى الآلة حيوان الباندا في صورة قرد الغيبون، أو تبدو لها الحافلة المدرسية في صورة نعامة.

وقد أبرز باحثون من فرنسا وسويسرا في إحدى التجارب كيف أدى هذا التشويش في الرؤية إلى عجز الكمبيوتر عن التمييز بين السنجاب والثعلب أو كوب القهوة وحيوان المكاو.

ولكن كيف يحدث هذا الالتباس؟ فكر في الطريقة التي يتعلم بها الطفل الأرقام، فالطفل يجب أن ينظر إلى كل رقم على حدة، حتى يتعرف على خصائصه المحددة،. وعندما يرى الطفل المزيد من الأمثلة، يتعرف سريعا على أرقام جديدة، مهما اختلف الخط.

وبهذه الطريقة أيضا تتعلم خوارزميات التعلم الآلي كيفية تمييز الأشياء الموجودة في العالم، إذ يغذي العلماء أحد أجهزة الكمبيوتر بآلاف الأمثلة عن أي شيء يريد العلماء أن يرصده الكمبيوتر، وكل مثال منها يحمل علامة مميزة في المعتاد. وبعد أن تفحص الآلة البيانات وتفرز الأرقام، فإنها تتعرف على السمات التي تساعدها في الإجابة، وسرعان ما تتمكن من تمييز الرقم بمجرد النظر إليه بدقة عالية.

مصدر الصورة Getty Images Image caption تغلغل الذكاء الاصطناعي في كل جوانب حياتنا اليومية ولم يعد بإمكاننا الاستغناء عنه، بداية من السيارات ذاتية القيادة ووصولا إلى الأجهزة المنزلية التي تعمل ذاتيا

ويمكن القول إن الأطفال وأجهزة الكمبيوتر يتعلمان بنفس الطريقة كيفية التعرف على طائفة كبيرة من الأشياء، بدءا من الأرقام والقطط والقوارب، ووصولا إلى الوجوه البشرية.

ولكن على عكس الطفل، لا ينتبه الكمبيوتر إلى التفاصيل عالية الدقة، مثل أذن القطة أو شكل الزاوية المميز للرقم أربعة، لأنه لا ينظر إلى الصورة ككل. لكن الكمبيوتر ينظر إلى كل بيكسل من الصورة على حدة ويحاول أن يجد أسرع طريقه لتمييز كل بيكسل عن الآخر.

ولهذا، عند إدخال تغييرات دقيقة جدا كما حدث في لافتة التوقف، ينخدع الكمبيوتر ويخيل إليه أن لافتة التوقف هي شيء مختلف تماما.

وأجريت أبحاث مشابهة في "مختبر الذكاء الاضطناعي المتطور" بجامعة وايومنغ وجامعة كورنيل، عرض فيها الباحثون عددا كبيرا من وسائل الخداع البصري على الذكاء الاصطناعي. وعلى الرغم من أن البشر لم يتكمنوا من تمييز هذه الصور ذات التأثيرات البصرية ذات الألوان والأشكال المبهمة، فإن الكمبيوتر استطاع أن يميزها بسرعة ولكنها بدت له في صورة بنادق أو ثعابين. وهذا يدل على أن الذكاء الاصطناعي قد ينظر إلى الشيء ثم يجيب إجابة لا تمت بصلة لحقيقتها.

ويقول يفجيني فوروبيتشيك، الأستاذ المساعد بقسم هندسة وعلوم الكمبيوتر بجامعة فاندربيلت: "علينا أن نتوقع أن كل خوارزم له نقطة ضعف تجعله عرضة للوقوع في الخطأ. فنحن نعيش في عالم معقد متعدد الأبعاد، ولا تركز الخوارزميات، بسبب طبيعتها، إلا على جزء صغير نسبيا منه".

ويؤكد فويوبيكيك أنه في حالة وجود نقاط ضعف في الخوارزميات، سيحاول البعض استغلالها، وربما تكون قد اسُتغلت بالفعل.

وهذا يذكرنا بمرشحات الرسائل الإلكترونية المزعجة غير المرغوبة، وهي البرامج التي تستبعد أي رسائل تبدو مشبوهة، وقد يحاول مرسلو هذا النوع من الرسائل تجاوز المرشحات من خلال تغيير بعض الحروف في الكلمات التي تتكرر في الرسائل المشبوهة أو بإضافة مجموعة من الكلمات التي ترد عادة في الرسائل العادية مثل كلمات "يُسعدني" أو "أنا"، أو "بالطبع"، أو التغطية على الكلمات التي تظهر عادة في الرسائل الشاذة، مثل "لقد فزت بكذا" أو "جهاز محمول" أو "يمكنك المطالبة بكذا".

وبخلاف الاحتيال بوضع ملصق على لافته التوقف، وهو تصور طرحة خبراء في هذا المجال، فإنه من الممكن للمهاجمين تسريب بيانات إباحية من دون أن تكتشفها المرشحات التي تمنع دخول المعلومات غير الآمنة، أو يحاول آخرون زيادة الأرقام على أحد الشيكات المصرفية، أو ربما يحاول قراصنة إدخال تغييرات طفيفة على شفرة البرمجيات الخبيثة لتخترق وسائل حماية المعلومات الرقمية.

وقد يتمكن المهاجمون من اختلاق بيانات معادية تمكنهم من خداع خوارزم التعلم الآلي، إذا استطاع أن يحصل على نسخة من هذه الخوارزميات. لكن هذا قد يحدث من دون اللجوء لهذه الطريقة، فقد يعزز المخترقون من هجومهم عبر محاولات عديدة، فيُرسل صيغا مختلفة من الرسالة الإلكترونية أو الصورة أو غير ذلك، حتى تنجح إحدى هذه الصيغ في خداع الخوارزميات.

ومع مرور الوقت، قد يُستخدم هذا الأمر في ابتكار نموذج جديد من الخوارزميات يعرف جيدة نوعية البيانات التي يبحث عنها أصحاب النوايا الحسنة، وكيفية إنتاج بيانات تمكنه من خداعها.

مصدر الصورة Getty Images Image caption السيارات ذاتية القيادة وأجهزة الروبوت التي تجري العلميات الجراحية تُحيط بها الكثير من المخاطر، فأي خطأ طفيف ترتكبه الآلات الحديثة سيسبب الكثير من المشاكل

ويقول باتريك ماكدانييل، أستاذ هندسة وعلوم الكمبيوتر بجامعة بنسلفانيا: "يحاول الناس التحايل على أنظمة التعلم الآلي منذ نشأتها. وإذا انتشر استخدام هذه الأساليب، فإننا قد لا نستطيع اكتشافها".

بالإضافة إلى المحتالين الذين يتحينون الفرص لخداع المستخدم، قد يحاول البعض الكشف عن البيانات السرية للمستخدم أو انتحال شخصية أخرى للإفلات من رقابة الوسائل التكنولوجية الحديثة الصارمة.

ويقول لود: "إذا كنت معارضا سياسيا تعيش في دولة يحكمها نظام قمعي، وأردت أن تزاول أنشطتك السياسية من دون أن تُستهدف، فإن القدرة على تفادي تقنيات الرقابة الآلية القائمة على خوارزميات التعلم الآلي قد يكون وسيلة إيجابية."

وفي مشروع نُشر في أكتوبر/تشرين الأول صمم الباحثون في جامعة "كارنيغي ميلون" إطار نظارة خصيصا لخداع نظام التعرف على الوجوه، وبالاستعانة بهذا الإطار، لم يتمكن الكمبيوتر من تمييز وجه الممثلة ريث ويذرسبون عن وجه الممثل راسيل كرو. ولكن هذه التقنية ربما تفيد من يحاول بشتى الطرق أن يتفادي رقابة السلطة الحاكمة.

ويقول لود: "السبيل الوحيد لتفادي خداع الخوارزميات هو بناء نموذج مثالي لا يخطأ أبدا". المشكلة أننا حتى لو توصلنا إلى ذكاء اصطناعي يفوق الإنسان مهارة وذكاء، فسنواجه المزيد من الحالات الملتبسة التي لم يكشف أحد غموضها بعد.

أهم أخبار العالم

Comments

عاجل