پژوهشی که نتایج آن در مجله Psychiatric Services منتشر شد، نشان میدهد که مدلهای هوش مصنوعی میتوانند جزئیات روشهای خودکشی را نیز به افراد در معرض خطر ارائه کنند.
تحقیقات نشان میدهد که ChatGPT و Gemini نسبت به سایر چتباتها پاسخهای پرخطرتری ارائه میدهند. با توجه به این موضوع، کارشناسان هشدار میدهند که مدلهای هوش مصنوعی باید محدودیتها و فیلترهای امنیتی قویتری داشته باشند.