نتيجة بيانات غير صحيحة من ChatGPT، محامي أمريكي مهدد بفقدان وظيفته.. فهل الاعتماد كلياً على الذكاء الاصطناعي خطأ ؟!

نتيجة بيانات غير صحيحة من ChatGPT، محامي أمريكي مهدد بفقدان وظيفته.. فهل الاعتماد كلياً على الذكاء الاصطناعي خطأ ؟!
تابعنا على اليوتيوب

في تحول صادم للأحداث، يجد المحامي المخضرم Steven Schwartz من Steven Schwartz مهنته القانونية بأكملها في خطر بسبب الاعتماد غير المتوقع على روبوت محادثة AI، حيث قام ChatGPT وهو برنامج الدردشة الآلي الشهير الذي طورته شركة OpenAI بتلفيق سلسلة من القضايا القانونية الخيالية التي استشهد بها Schwartz في ملف حديث له، وهذه الحادثة التي من المحتمل أن تعرقل مسيرة Schwartz المهنية التي استمرت ثلاثة عقود، تعد بمثابة قصة تحذيرية حول الجوانب السلبية المحتملة الناجمة عن الاعتماد الكلي على تكنولوجيا الذكاء الاصطناعي في المهنة القانونية.

استشهد ChatGPT بحالات وهمية من أجل تلبية الاستفسار الذي تم إنشاؤه بواسطة المحامي حول قضية Mata ضد Avianca ، حيث رفع عميل يدعى Roberto Mata دعوى قضائية ضد شركة الطيران بعد تعرضه لإصابة في الركبة من عربة خدمة أثناء الرحلة، إذ سعى محامي Mata مواجهة محاولة Avianca رفض القضية، وذلك عبر تقديم موجز يستشهد بالعديد من قرارات المحكمة السابقة، وقد تحول Schwartz (الذي يمثل Mata) إلى ChatGPT لاستكمال بحثه وتقديم أمثلة إضافية.

بدلاً من ذلك أنشأت ChatGPT قائمة بقضايا وهمية، بما في ذلك Varghese ضد China Southern Airlines ، و Shaboon v. Egyptair ، و Petersen v. Iran Air ، و Martinez v. Delta Airlines ، و Estate of Durden ضد KLM Royal Dutch Airlines ، و Miller ضد  United Airlines، حيث تم اختلاق هذه الحالات بالكامل بواسطة روبوت الدردشة AI.

واكتشف كل من الفريق القانوني لشركة Avianca والقاضي الذي يرأس الجلسة بسرعة أن هذه القضايا المشار إليها لم تكن موجودة، وفي إفادة خطية اعترف Schwartz باعتماده غير المقصود على المعلومات الخاطئة الناتجة عن ChatGPT. حتى أن المحامي قدم لقطات من تفاعلاته مع برنامج الدردشة الآلي، حيث سعى للحصول على تأكيد على صحة القضية وتلقى ردوداً مضللة.

ويسلط هذا الحادث الضوء على المخاطر المحتملة المرتبطة بالثقة العمياء في تكنولوجيا الذكاء الاصطناعي في المجال القانوني، ففي حين أن أدوات الذكاء الاصطناعي يمكنها بلا شك تعزيز البحث القانوني وكفاءته، إلا أن الرقابة البشرية والتفكير النقدي يظلان حاسمين في ضمان دقة المعلومات وموثوقيتها.

إنّ هذه القضية هي بمثابة دعوة للمهنيين القانونيين بأن يتوخو الحذر عند دمج الذكاء الاصطناعي في ممارساتهم، إذ يجب دائماً استكمال الاعتماد على التكنولوجيا من خلال التحقق البشري والفهم الشامل للقيود والتحيزات المحتملة لأنظمة الذكاء الاصطناعي، إذ قد يكون للفشل في القيام بذلك عواقب وخيمة، كما حدث مع Steven Schwartz.



أجهزة المقارنة

مقارنة
إزالة الكل
مقارنة
0
Facebook Twitter Copy Link WhatsApp