چالش های قابل توجهی که سم آلتمن در رابطه با ChatGPT مواجه هست!

طبق گفته مدیرعامل OpenAI سم آلتمن، سخت ترین مسئلهای که OpenAI هم اکنون با آن درگیر بوده، نحوه برخورد ChatGPT با موضوع خودکشی می باشد، که این موضوع بعد از شکایت خانوادهای که این چتبات را در خودکشی پسر نوجوانشان مقصر میدانستند، به یک مسئله جدی تبدیل شد.
سم آلتمن می گوید :
از هزاران نفری که هر هفته خودکشی میکنند، بسیاری از آنها احتمالاً در روزهای آخر، با ChatGPT صحبت کردهاند و احتمالاً راجب خودکشی حرف زدند و ما احتمالاً جان آنها را نجات ندادیم؛ شاید میتوانستیم چیز بهتری بگوییم، یا شاید میتوانستیم پیشگیری بکنیم.
این اعتراف در واقع بعد از شکایت خانواده Adam Raine، نوجوان 16 سالهای که بعد از صحبت با ChatGPT خودکشی کرد، گفته شد؛ خانواده او ادعا کردند که ChatGPT به آدام در بررسی روشهای خودکشی کمک کرده؛ OpenAI بعد از این اتفاق، برنامههای خود را برای بهبود مدیریت موقعیتهای حساس اعلام کرد.
سم آلتمن در جواب به سؤالی که اصول اخلاقی ChatGPT چگونه تعیین میشود، توضیح می دهد که مدل پایه براساس دانش جمعی بشریت آموزش دیده، اما OpenAI باید رفتار آن را در موارد خاص همسو کند؛ همچنین او گفته که شرکت با صدها فیلسوف اخلاق و متخصصان اخلاق فناوری مشورت کرده است. در این رابطه آلتمن مثال می زند که چتبات به سؤال های مربوط به ساخت سلاحهای بیولوژیکی جوابی نمیدهد چون بدیهی است که منافع جامعه با آزادی کاربر در تضاد قرار می گیرد؛ به علاوه درباره حریم خصوصی کاربران می گوید که مکالمات ChatGPT با کاربرها باید مثل مکالمات بین پزشک و بیمار یا وکیل و موکل محرمانه باشد، البته او تأکید کرده که مقامات آمریکایی میتوانند با حکم دادگاه، دادههای کاربرها را از شرکت بخواهند.
زمانی که درمورد استفاده نظامی از ChatGPT برای آسیب به انسانها سؤال شد، سم آلتمن پاسخ مستقیمی نداد ولی گفته که فکر میکنم افراد زیادی در ارتش برای گرفتن مشاوره با ChatGPT صحبت میکنند، این درحالی است که OpenAI یکی از شرکتهایی است که قراردادی 200 میلیون دلاری با وزارت دفاع ایالات متحده برای استفاده از هوش مصنوعی مولد در ارتش را امضا کرده!