OpenAI تدابیر ایمنی سلامت روان را در میان دعاوی ادغام شده کالیفرنیا گسترش میدهد
Felix Pinkston 1404/12/13 23:02
OpenAI ویژگی تماس مورد اعتماد و تشخیص بهبود یافته پریشانی را اعلام میکند در حالی که دعاوی سلامت روان در دادگاه کالیفرنیا ادغام میشوند. پروندههای جدید مورد انتظار است.
OpenAI ویژگیهای ایمنی جدید سلامت روان را برای ChatGPT عرضه میکند در حالی که به طور همزمان برای موج گستردهای از دعاوی قضایی آماده میشود، زیرا چندین دعوی حقوقی که ادعا میکنند چتبات به آسیب کاربران کمک کرده است در یک رسیدگی واحد کالیفرنیا ادغام شدهاند.
این شرکت در 1404/12/13 اعلام کرد که به زودی ویژگی "تماس مورد اعتماد" را راهاندازی خواهد کرد که به کاربران بزرگسال اجازه میدهد فردی را تعیین کنند که هنگامی که ممکن است به حمایت بیشتری نیاز داشته باشند، اعلان دریافت کند. این ویژگی بر اساس کنترلهای والدین معرفی شده در شهریور ۱۴۰۴ ساخته شده است که OpenAI میگوید "مشارکت دلگرمکنندهای از خانوادهها" را شاهد بوده است.
فشار قانونی افزایش مییابد
زمانبندی تصادفی نیست. دادگاه کالیفرنیا اخیراً چندین پرونده مرتبط با سلامت روان علیه OpenAI را ادغام کرده است و قاضی هماهنگی در روزهای آینده منصوب خواهد شد. مسئله نگرانکنندهتر برای شرکت: وکلای خواهانها به دادگاه اطلاع دادهاند که قصد دارند پروندههای بیشتری را ثبت کنند.
OpenAI لحن قابل توجهی سنجیده در پرداختن به دعوی قضایی داشت و اعلام کرد که پروندهها را "با دقت، شفافیت، احترام به افراد درگیر" رسیدگی خواهد کرد و تصدیق کرد که موقعیتها شامل "مردم واقعی و زندگیهای واقعی" هستند. شرکت از ناظران خواست تا زمانی که حقایق از طریق رویههای دادگاه آشکار میشوند، "قضاوت را حفظ کنند".
بهبودهای فنی
فراتر از ویژگی تماس مورد اعتماد، OpenAI میگوید در حال پیشرفت در نحوه تشخیص پریشانی عاطفی از طریق روشهای ارزیابی جدید است که گفتگوهای طولانی سلامت روان را شبیهسازی میکنند. این کار شامل شورای رفاه و هوش مصنوعی شرکت و شبکه جهانی پزشکان آن است.
این بهروزرسانیها پس از بهبودهای قابل توجه ایمنی مدل در سال گذشته انجام شد. زمانی که GPT-5 در اواخر ۱۴۰۴ راهاندازی شد، OpenAI گزارش داد که پاسخهای ناخواسته در سناریوهای سلامت روان را به طور قابل توجهی در مقایسه با GPT-4o کاهش داده است. این شرکت همچنین محدودیت زمان جلسه و "یادآوریهای ملایم" را اجرا کرده است که کاربران را تشویق میکند در طول تعاملات طولانی استراحت کنند.
OpenAI سیاستهای استفاده خود را بهروزرسانی کرد تا به صراحت استفاده از مدلهایش برای تشخیص شرایط پزشکی یا ارائه درمان خاص سلامت روان را ممنوع کند و ChatGPT را به عنوان یک ابزار حمایتی به جای جایگزینی حرفهای قرار دهد.
مقیاس چالش
با بیش از 900 میلیون کاربر هفتگی ChatGPT، خطرات قابل توجه است. یک مطالعه دانشگاه استنفورد و تحقیقات دیگر نگرانیها در مورد پتانسیل چتباتهای مبتنی بر هوش مصنوعی برای کمک به آسیب روانی را تقویت کردهاند، از جمله ادعاها در دعاوی در حال انتظار که ChatGPT به روانپریشی، پارانویا و خودکشی کاربران کمک کرده است.
این شرکت همچنین به کمکهای مالی تا 2 میلیون دلار برای تحقیقات خارجی در مورد موضوعات سلامت روان مبتنی بر فرهنگ و روشهای ارزیابی بهبود یافته متعهد شده است—اعترافی که تلاشهای داخلی به تنهایی ممکن است کافی نباشند.
نحوه پیشرفت رسیدگی ادغام شده کالیفرنیا احتمالاً انتظارات نظارتی برای کل صنعت هوش مصنوعی را شکل خواهد داد. انتخاب وکیل ارشد برای خواهانها توسط دادگاه، که به زودی انتظار میرود، نشان خواهد داد که این پروندهها چقدر تهاجمی پیش میروند.
منبع تصویر: Shutterstock- openai
- chatgpt
- ایمنی هوش مصنوعی
- سلامت روان
- دعاوی قضایی



