في 22 نوفمبر 2023، أعلنت شركة "OPEN AI" عن إجراء تغييرات جديدة في سياستها، أثارت قلق العديد من الخبراء والمهتمين بمستقبل الذكاء الاصطناعي.
تتمثل التغييرات الجديدة في :
- السماح للشركات التجارية باستخدام تقنيات "OPEN AI" دون قيود.
- زيادة الاستثمار في الأبحاث والتطوير لتعزيز قدرات الذكاء الاصطناعي.
- إنشاء شركة فرعية جديدة تركز على تطوير تقنيات الذكاء الاصطناعي للدفاع.
أثارت هذه التغييرات قلق الخبراء والمهتمين بمستقبل الذكاء الاصطناعي لعدة أسباب، منها:
- السماح للشركات التجارية باستخدام تقنيات "OPEN AI" دون قيود، قد يؤدي إلى انتشار هذه التقنيات بسرعة كبيرة، مما قد يشكل خطراً على أمن وسلامة المجتمعات.
- زيادة الاستثمار في الأبحاث والتطوير لتعزيز قدرات الذكاء الاصطناعي، قد يؤدي إلى تطوير تقنيات الذكاء الاصطناعي التي تتجاوز قدرات الإنسان، مما قد يشكل خطراً على البشرية.
- إنشاء شركة فرعية جديدة تركز على تطوير تقنيات الذكاء الاصطناعي للدفاع، قد يشير إلى أن "OPEN AI" تسعى إلى تطوير تقنيات الذكاء الاصطناعي للاستخدام العسكري، مما قد يؤدي إلى عسكرة الذكاء الاصطناعي وزيادة خطر استخدامها في الحروب.
في بيانها، أوضحت شركة "OPEN AI" أن التغييرات الجديدة تهدف إلى تعزيز الابتكار في مجال الذكاء الاصطناعي وجعل هذه التقنيات متاحة للجميع. كما أكدت الشركة أنها ملتزمة بتعزيز السلام والأمن في العالم.
ومع ذلك، فإن التغييرات الجديدة لا تزال تثير القلق لدى العديد من الخبراء والمهتمين بمستقبل الذكاء الاصطناعي، حيث يرون أنها قد تؤدي إلى عواقب وخيمة على البشرية.
المخاطر المحتملة للتغيرات الجديدة
فيما يلي بعض المخاطر المحتملة للتغيرات الجديدة في شركة "OPEN AI" :
- زيادة احتمالية استخدام الذكاء الاصطناعي لأغراض ضارة، مثل نشر المعلومات المضللة، أو تطوير أسلحة ذاتية الحكم، أو التجسس على الأفراد.
- زيادة عدم المساواة بين الدول، حيث قد تتمكن الدول الغنية من الوصول إلى تقنيات الذكاء الاصطناعي المتقدمة، مما قد يمنح لها ميزة عسكرية واقتصادية على الدول الفقيرة.
- زيادة خطر اندلاع الحروب، حيث قد تسعى الدول إلى استخدام تقنيات الذكاء الاصطناعي في الحروب، مما قد يؤدي إلى وقوع ضحايا أكثر من الحروب التقليدية.
الحاجة إلى التنظيم
يعتقد العديد من الخبراء أن هناك حاجة إلى تنظيم الذكاء الاصطناعي لمنع حدوث هذه المخاطر. ويشيرون إلى أن الحكومات يجب أن تضع قوانين وأنظمة للحد من استخدام الذكاء الاصطناعي لأغراض ضارة.
كما يعتقدون أن هناك حاجة إلى إنشاء هيئات دولية مستقلة للإشراف على تطوير واستخدام الذكاء الاصطناعي. وتهدف هذه الهيئات إلى ضمان استخدام الذكاء الاصطناعي بطريقة آمنة ومسؤولة.
بالإضافة إلى المخاطر المحتملة المذكورة أعلاه، هناك بعض المخاطر الأخرى التي يجب مراعاتها عند مناقشة التغييرات الجديدة في شركة "OPEN AI" :
- خطر تطوير أنظمة الذكاء الاصطناعي التي تكون غير عادلة أو تمييزية. حيث يمكن أن تؤدي تقنيات الذكاء الاصطناعي إلى تفاقم مشكلات عدم المساواة الموجودة، مثل عدم المساواة بين الجنسين أو العرقيات.
- خطر تطوير أنظمة الذكاء الاصطناعي التي تكون غير شفافة أو غير قابلة للمساءلة. حيث يمكن أن تجعل أنظمة الذكاء الاصطناعي من الصعب على الناس فهم كيفية اتخاذها للقرارات، مما قد يؤدي إلى سوء الاستخدام أو سوء الفهم.
- خطر تطوير أنظمة الذكاء الاصطناعي التي تكون غير آمنة أو عرضة للاختراق. حيث يمكن أن تكون أنظمة الذكاء الاصطناعي هدفاً للهجوم الإلكتروني، مما قد يؤدي إلى ضرر أو سرقة بيانات.
الحاجة إلى الحوار
من المهم أن يكون هناك حوار مفتوح حول المخاطر المحتملة للذكاء الاصطناعي. حيث يجب على الحكومات والشركات والمجتمع المدني العمل معاً لضمان تطوير واستخدام الذكاء الاصطناعي بطريقة آمنة ومسؤولة.
وفيما يلي بعض الخطوات التي يمكن اتخاذها للحد من المخاطر المحتملة للتغيرات الجديدة في شركة "OPEN AI" :
- وضع قوانين وأنظمة لتنظيم تطوير واستخدام الذكاء الاصطناعي.
- إنشاء هيئات دولية مستقلة للإشراف على تطوير واستخدام الذكاء الاصطناعي.
- زيادة الاستثمار في البحث والتطوير في مجال الذكاء الاصطناعي الأخلاقي.
وعلى الرغم من أن التغييرات الجديدة في شركة "OPEN AI" قد تثير القلق، إلا أنها أيضاً فرصة لتعزيز الحوار حول مستقبل الذكاء الاصطناعي.
نود أن نسمع منكم أفكاركم ورؤاكم حول التغييرات الجديدة في شركة "OPEN AI". ما هي المخاطر المحتملة التي تراها؟ ما هي الخطوات التي تعتقد أنها يمكن اتخاذها للحد من هذه المخاطر ؟ يمكنكم ترك تعليقاتكم أدناه أو مشاركتها عبر مواقع التواصل الاجتماعي.