القيود الثلاثة الرئيسية للذكاء الاصطناعي

لقد أدى الذكاء الاصطناعي إلى تحويل البشرية، مما مكّن الشركات من زيادة الكفاءة وخفض التكاليف وتعزيز أعمالها بطرق مختلفة. ومع ذلك، في عام 2023، لا يخلو الأمر من العيوب.

الذكاء الاصطناعي (AI) هو مجال سريع التطور ولديه القدرة على إحداث ثورة في العديد من جوانب حياتنا. ومع ذلك، على الرغم من مزاياه العديدة، إلا أن الذكاء الاصطناعي لديه أيضًا عدد من القيود التي يجب أخذها في الاعتبار. في هذا المنشور، سوف نستكشف بعض القيود الرئيسية للذكاء الاصطناعي، بما في ذلك القضايا المتعلقة بالدقة وإمكانية التفسير والأخلاق.

ومن خلال فهم هذه القيود، يمكننا تقدير قدرات الذكاء الاصطناعي وقيوده بشكل أفضل واتخاذ قرارات أكثر استنارة حول كيفية استخدامه في المستقبل.

لقد أدى الذكاء الاصطناعي إلى تحويل البشرية، مما مكّن الشركات من زيادة الكفاءة وخفض التكاليف وتعزيز أعمالها بطرق مختلفة. ومع ذلك، في عام 2023، لا يخلو الأمر من العيوب.

تتمثل القيود الثلاثة الرئيسية للذكاء الاصطناعي في أنه لا يمكن أن يكون ذكيًا أو فعالًا إلا بقدر جودة البيانات المقدمة له، والتحيزات الخوارزمية، وطبيعة "الصندوق الأسود" الخاصة به.

عدم الدقة في تحليل البيانات:

لا يمكن لبرامج الذكاء الاصطناعي أن تتعلم إلا من البيانات التي نقدمها لها. ومع ذلك، إذا كانت البيانات المقدمة للبرنامج غير كاملة أو غير جديرة بالثقة، فقد تكون نتائجك غير دقيقة أو متحيزة. ونتيجة لذلك، لا يمكن للذكاء الاصطناعي أن يكون ذكيًا أو فعالًا إلا بقدر البيانات التي يتم تغذيتها بها.

على سبيل المثال، بدأت أمازون باستخدام برنامج الذكاء الاصطناعي لفحص المتقدمين للوظائف الجديدة في عام 2014. وقد تم تدريبهم باستخدام السير الذاتية من العقد الماضي، والتي كانت الغالبية العظمى منهم من الذكور. افترض النظام بشكل غير صحيح أن المتقدمين الذكور هم الأفضل في التعيينات الجديدة وبدأ في تصفية المتقدمين الإناث.

التحيز الحسابي:

الخوارزميات هي مجموعة من التعليمات التي تتبعها الآلة لإنجاز مهمة محددة، والتي قد تكون أو لا تكون مكتوبة بواسطة مبرمج بشري. ومع ذلك، إذا كانت الخوارزميات معيبة أو متحيزة، فلن تؤدي إلا إلى نتائج غير عادلة ولا يمكننا الاعتماد عليها. تنشأ التحيزات في المقام الأول لأن المبرمجين صمموا الخوارزمية جزئيًا لصالح معايير معينة مرغوبة أو تخدم مصالحهم الذاتية. يعد التحيز الخوارزمي أمرًا شائعًا على المنصات الكبيرة مثل مواقع التواصل الاجتماعي ومحركات البحث.

في عام 2017، على سبيل المثال، أنشأت خوارزمية فيسبوك خوارزمية لإزالة خطاب الكراهية. ومع ذلك، فقد تبين لاحقًا أن الخوارزمية منعت خطاب الكراهية الموجه إلى الذكور البيض بينما سمحت بخطاب الكراهية الموجه إلى الأطفال السود. وسمحت الخوارزمية بخطاب الكراهية هذا لأنها صُممت لتصفية فئات واسعة فقط مثل "البيض" و"السود" و"المسلمين" و"الإرهابيين" و"النازيين"، بدلاً من مجموعات فرعية محددة من الفئات.

طبيعة "الصندوق الأسود" للذكاء الاصطناعي:

يُعرف الذكاء الاصطناعي بقدرته على التعلم من كميات كبيرة من البيانات، وتحديد الأنماط الأساسية، واتخاذ قرارات تعتمد على البيانات. ومع ذلك، في حين أن النظام ينتج نتائج دقيقة باستمرار، فإن أحد العوائق الرئيسية هو أن نظام الذكاء الاصطناعي لا يستطيع التعبير أو شرح كيفية التوصل إلى هذا الاستنتاج. وهذا يثير السؤال التالي: كيف يمكننا أن نثق في النظام في مجالات حساسة للغاية مثل الأمن القومي، أو الحكم، أو المشاريع التجارية حيث تكون المخاطر عالية؟

قيود الذكاء الاصطناعي الأخرى في عام 2023 (OpenAI وChatGPT)

تتضمن بعض القيود الرئيسية للذكاء الاصطناعي ما يلي:

  1. دقة محدودة: يمكن أن تكون نماذج الذكاء الاصطناعي عرضة للأخطاء، خاصة عند التعامل مع البيانات المعقدة أو الغامضة.
  2. عدم وجود تفسير: تُعتبر العديد من نماذج الذكاء الاصطناعي بمثابة "صناديق سوداء"، مما يعني أنه قد يكون من الصعب فهم كيفية وصولها إلى قرار أو تنبؤ معين.
  3. مخاوف أخلاقية: يمكن للذكاء الاصطناعي أن يديم، بل ويضخم، التحيزات في البيانات التي يتم تدريبه عليها. ويمكنه أيضًا إثارة قضايا الخصوصية والاستقلالية وإزاحة الوظائف.
  4. نطاق محدود: لا يستطيع الذكاء الاصطناعي فهم الفروق الدقيقة في المشاعر البشرية والتفكير والوعي.
  5. الاعتماد على البيانات: ويعتمد الذكاء الاصطناعي بشكل كبير على البيانات عالية الجودة للتعلم وإجراء التنبؤات، وهو ما قد يكون الحصول عليه صعبًا ومكلفًا.
  6. Overfitting: يمكن لنماذج الذكاء الاصطناعي في بعض الأحيان "حفظ" بيانات التدريب بدلاً من تعلم الميزات القابلة للتعميم، مما يجعل من الصعب التعميم على البيانات الجديدة غير المرئية.
  7. الهجمات المعادية: يمكن أن تكون نماذج الذكاء الاصطناعي عرضة للجهات الفاعلة الضارة التي تحاول التلاعب ببيانات الإدخال لخداع النموذج لاتخاذ قرارات غير صحيحة.
  8. قيود الأجهزة: تتطلب نماذج الذكاء الاصطناعي موارد حسابية كبيرة، والتي يمكن أن تكون باهظة التكلفة بالنسبة لبعض المؤسسات.
  9. اللائحة: لا تزال البيئة القانونية والتنظيمية للذكاء الاصطناعي في طور التطور، مما قد يجعل من الصعب على المؤسسات التنقل بين المتطلبات وضمان الامتثال.

الحد الأدنى

ونظرا للمخاطر الكبيرة التي تنطوي عليها هذه القيود، ينبغي للحكومات والمبتكرين وقادة الأعمال والجهات التنظيمية استخدام تكنولوجيا الذكاء الاصطناعي بطريقة أخلاقية.

الاوسمة (تاج)