استطلاع جديد: معظم الناس لا يثقون فى الذكاء الاصطناعي ويريدون التنظيم

توصلت دراسة جديدة إلى أن معظم البالغين الأمريكيين لا يثقون في أدوات الذكاء الاصطناعي مثل ChatGPT ويشعرون بالقلق بشأن احتمالية إساءة استخدامها، وتشير إلى أن الفضائح المتكررة المحيطة بالبرامج الضارة والمعلومات المضللة التي ينشئها الذكاء الاصطناعي لها تأثيرها السلبي، وأن الجمهور قد يكون متقبلاً بشكل متزايد لأفكار تنظيم الذكاء الاصطناعي.

يزعم استطلاع MITRE and Harris أن 39% فقط من 2063 بالغًا أمريكيًا شملهم الاستطلاع يعتقدون أن تكنولوجيا الذكاء الاصطناعي اليوم “آمنة ومأمونة”، وهو انخفاض بنسبة 9% عما كانت عليه عندما أجرت الشركتان استطلاعهما آخر مرة في نوفمبر 2022.

عندما يتعلق الأمر بمخاوف محددة، كان 82% من الأشخاص قلقين بشأن التزييف العميق و”المحتوى الاصطناعي الآخر”، بينما كان 80% يخشون كيفية استخدام هذه التكنولوجيا في هجمات البرامج الضارة. أعرب غالبية المشاركين في الاستطلاع عن قلقهم بشأن استخدام الذكاء الاصطناعي في… سرقة الهوية، وجمع البيانات الشخصية، والاستبدال البشري في مكان العمل، وغير ذلك الكثير.

في الواقع، يشير الاستطلاع إلى أن الناس أصبحوا أكثر حذرًا من تأثير الذكاء الاصطناعي على المجموعات السكانية المختلفة، وبينما يشعر 90% من جيل الطفرة السكانية بالقلق بشأن تأثير التزييف العميق، فإن 72% من أعضاء الجيل Z يشعرون بالقلق أيضًا بشأن نفس الشيء. الموضوع، وفقا لتقرير صادر عن Digital Trend.
على الرغم من أن الشباب أقل تشككا في الذكاء الاصطناعي وأكثر احتمالا لاستخدامه في حياتهم اليومية، إلا أن المخاوف لا تزال مرتفعة في عدد من المجالات، بما في ذلك ما إذا كان ينبغي للصناعة أن تفعل المزيد لحماية الجمهور وما إذا كان ينبغي تنظيم الذكاء الاصطناعي.

من المحتمل أن يكون الانخفاض في دعم أدوات الذكاء الاصطناعي مدفوعًا بأشهر من القصص السلبية في الأخبار المتعلقة بأدوات الذكاء الاصطناعي التوليدية والخلافات التي تواجه ChatGPT وBing Chat وغيرها من المنتجات، ومع تزايد قصص المعلومات الخاطئة وانتهاكات البيانات والبرامج الضارة، يظهر الجمهور أن تصبح أقل تقبلا. لمستقبل الذكاء الاصطناعي في الأفق.

عندما سُئلوا في استطلاع MITRE-Harris عما إذا كان ينبغي للحكومة أن تتدخل لتنظيم الذكاء الاصطناعي، كان 85% من المشاركين يؤيدون الفكرة – بزيادة 3% عن المرة السابقة، ووافق نفس 85% من المشاركين على العبارة القائلة بأن “جعل الذكاء الاصطناعي آمن للاستخدام “يجب أن يكون جهدًا وطنيًا عبر الصناعة والحكومة والأوساط الأكاديمية”، بينما رأى 72% أن “الحكومة الفيدرالية يجب أن تركز المزيد من الوقت والتمويل على الذكاء الاصطناعي”. البحث والتطوير الأمني.”

يعد القلق الواسع النطاق بشأن استخدام الذكاء الاصطناعي لتحسين هجمات البرامج الضارة أمرًا مثيرًا للاهتمام، وقد تحدثنا مؤخرًا إلى مجموعة من خبراء الأمن السيبراني حول هذا الموضوع بالذات، ويبدو أن الإجماع هو أنه على الرغم من إمكانية استخدام الذكاء الاصطناعي في البرامج الضارة، إلا أنه ليس كذلك… أداة قوية بشكل خاص في الوقت الراهن. ورأى بعض الخبراء أن قدرتها على كتابة تعليمات برمجية فعالة للبرامج الضارة كانت ضعيفة، بينما أوضح آخرون أن المتسللين من المرجح أن يجدوا عمليات استغلال أفضل في المستودعات العامة بدلاً من طلب المساعدة من الذكاء الاصطناعي.

ومع ذلك، فإن الشكوك المتزايدة حول كل ما يتعلق بالذكاء الاصطناعي يمكن أن تشكل في نهاية المطاف جهود الصناعة ويمكن أن تدفع شركات مثل OpenAI إلى استثمار المزيد من الأموال في حماية الجمهور من المنتجات التي تطلقها. ومع هذا الدعم الساحق، فلا تتفاجأ إذا بدأت الحكومات في سن تشريعات خاصة بالذكاء الاصطناعي عاجلاً وليس آجلاً.

Leave a Comment