الذكاء الإصطناعى ـــ 1
قدرات إبتكار التصرف بشكل مستقل
مستشار التحرير : ـــ أحمد عزت سليم
يزيد الذكاء الاصطناعي ويشكل الحياة العالمية والوطنية وبما يمكن أن يحدث من : ـــ تغييرات وتأثيرات إجتماعية واقتصادية من خلال زيادة الإنتاجية ، ويشمل ذلك الآلات التي تكون قادرة على أداء مهام جديدة ، مثل السيارات ذاتية القيادة ، والروبوتات المتقدمة أو المساعدين الأذكياء لدعم الناس في حياتهم اليومية ، كما كيفية توزيع الفوائد من التكنولوجيا ، إلى جانب الإجراءات التي يتخذها أصحاب المصلحة ، سيخلق نتائج مختلفة إلى حد كبير لأسواق العمل والمجتمع ككل والتأثير على الوظائف ذات المهارات العالية التي تعتمد بشكل كبير على المهام المعرفية الروتينية ، ومما قد يؤدي هذا إلى درجة أعلى من البطالة الهيكلية ، كما سيؤدى إلى خلق وظائف جديدة أو زيادة الطلب على بعض الوظائف القائمة وقد توقع أن تصل إلى 47 ٪ من فرص العمل في الولايات المتحدة ، ويؤكد الخبراء أنه إذا أصبح الذكاء الاصطناعى صناعة مركزة بين عدد صغير من اللاعبين أو ضمن جغرافية معينة ، فقد يؤدي ذلك إلى زيادة عدم المساواة داخل المجتمعات وفيما بينها ، وقد يؤدي عدم المساواة أيضًا إلى انعدام الثقة التكنولوجي ، خاصةً تقنيات الذكاء الاصطناعي والإنترنت ، والتي يمكن إلقاء اللوم عليها في هذا التحول وبما يشمل هذا التأثير والتحول البيئة الأنسانية بكل أنواعها التى تشمل ، وبداية من علاقات الكائنات الحية مع بعضها البعض ، ومع محيطها أو بيئتها ، والأنماط ، والسلوكيات والأخلاقيات عبر مناطق واسعة طبقا للبيئة لتنوع البيئة المكانية ووصولا إلى درجة التأثير على البيئة السكانية والتغيّرات التى تشمل الإنسان والكائنات الأخرى في البيئة المحيطة بها ، ومن هذا المنطلق يرى الخبراء ضرورة أن تتضمن فاعليات وآليات الذكاء الإصطناعى : ـــــ أولا : ــــ تبني المعايير الأخلاقية ويجب التقيد بمبادئ ومعايير الاعتبارات الأخلاقية في تصميم الذكاء الاصطناعي لتوجيه الباحثين والصناعة للمضي قدمًا بذلك ، وثانيا : ــــ تعزيز الاعتبارات الأخلاقية في سياسات الابتكار : ـــــ بالالتزام بالمعايير الأخلاقية كشرط مسبق لأمور مثل التمويل فى التصنيع والإبتكار والتنفيذ .
ومن هذا المنطلق تشكل قدرة القائم بالذكاء الاصطناعي على التصرف بشكل مستقل ، وتكييف سلوكه مع مرور الوقت دون توجيه بشري ، مما يستدعي إجراء فحوصات أمان كبيرة قبل النشر ، والمراقبة المستمرة : ـــــ حيث يجب أن يكون البشر تحت السيطرة فقد تكون هناك أيضًا حاجة لدمج عمليات التحقق البشرية في استراتيجيات صنع القرار الجديدة في تصميم نظام الذكاء الاصطناعي ، خاصةً عندما يكون الخطر على حياة الإنسان وسلامته كبيرًا ، و ـــ جعل السلامة أولوية : ـــ يجب اختبار أي نشر لنظام مستقل بشكل مكثف مسبقًا لضمان التفاعل الآمن لعامل AI مع بيئته ( الرقمية أو المادية ) وأنه يعمل على النحو المنشود.
يجب مراقبة الأنظمة المستقلة أثناء التشغيل ، وتحديثها أو تصحيحها حسب الحاجة ، و ـــ وأن تكون الخصوصية هى المفتاح الأساسى بما يجب أن تكون أنظمة الذكاء الاصطناعي مسؤولة عن البيانات ويجب أن استخدام ما يحتاجون إليه فقط وحذفه عند عدم الحاجة إليه ويجب عليهم تشفير البيانات أثناء العبور والراحة ، وتقييد الوصول إلى الأشخاص المصرح لهم بالتحكم في الوصول ، ويجب على أنظمة الذكاء الاصطناعى فقط جمع واستخدام ومشاركة وتخزين البيانات وفقا لقوانين الخصوصية والبيانات الشخصية وأفضل الممارسات وبالتالى يمكن للأفراد إفتقاد الخصوصية ، و ــــ يجب التفكير بعناية في التعليمات والبيانات المقدمة لأنظمة الذكاء الاصطناعي وبما لا ينبغي تدريب أنظمة الذكاء الاصطناعى على البيانات المتحيزة أو غير الدقيقة أو غير المكتملة أو المضللة ، و ــــ يجب تأمين أنظمة الذكاء الاصطناعي المتصلة بالإنترنت ليس فقط لحمايتها ، ولكن أيضًا لحماية الإنترنت من خلل أو خلل في أنظمة الذكاء الاصطناعي التي يمكن أن تصبح الجيل التالي من شبكات الروبوتات ، ويجب تطبيق معايير عالية من الجهاز والنظام وأمن الشبكة وبما لا يسمح بإنشاء أسلحة مستقلة تستخدم فى الصراع بكل أنواعه الدولية والوطنية والمجتمعية والشخصية ، و ــــ الحماية القانونية للقائمين سلامة أنظمة الذكاء الإصطناعى ، وفى ذات الوقت يجب على الباحثين وغيرهم ممن يكتشفون ثغرات أمنية أو عيوب أخرى في التصميم أن يكشفوا بشكل مسئول عن نتائجهم لأولئك الذين هم في أفضل وضع لحل المشكلة ، وفى ذات الوقت ممتثلين للأطر القانونية القائمة ، وكما يجب على صانعي السياسات التأكد من أن أي قوانين تنطبق على أنظمة الذكاء الاصطناعي واستخدامها تضع اهتمامات المستخدمين في المركز ، و ـــ كما يقود إلى قيام الجماعات الإرهابية على كافة المستويات بهجمات إرهابية ومثل الهجمات بطيارات بدون طيار وإطلاقها من أماكن مبرمجة تقنيا ومع إستخدامه فى كافة العمليات العنصرية ضد الآخر .