JAI NewsRoom مدیریت

هوش مصنوعی، دستیار قابل‌اعتماد یا منبع دردسر؟

09 آبان 1404 | 20:00 •جهان
هوش مصنوعی، دستیار قابل‌اعتماد یا منبع دردسر؟

استفاده گسترده از هوش مصنوعی فرصت‌های تازه‌ای برای بهره‌وری ایجاد کرده، اما خطاهای فزاینده و چالش‌های حقوقی نشان می‌دهد که بدون آموزش و نظارت انسانی، این ابزار می‌تواند دردسرساز شود.

به گزارش اتیه آنلاین، با گسترش استفاده از هوش مصنوعی در محیط‌های کاری و حقوقی، چالش‌های تازه‌ای در حال ظهور است؛ از گزارش‌ها و لوایحی با ارجاعات ساختگی گرفته تا نگرانی درباره حریم خصوصی و دقت داده‌ها. کارشناسان هشدار می‌دهند که هوش مصنوعی باید به‌عنوان دستیار انسان مورد استفاده قرار گیرد، نه جایگزین قضاوت انسانی.

به گزارش یورونیوز، با گسترش روزافزون استفاده از هوش مصنوعی در محیط‌های کاری، کارفرمایان اکنون به دنبال استخدام افرادی هستند که بتوانند از این فناوری برای انجام وظایفی چون تحقیق، تنظیم گزارش و افزایش بهره‌وری استفاده کنند. اما در کنار مزایای فراوان، چالش‌های تازه‌ای نیز پدید آمده است؛ از جمله افزایش اشتباهات، خطاهای داده‌ای و حتی تولید محتوای ساختگی.

یکی از حوزه‌هایی که این خطاها در آن به‌سرعت خود را نشان داده، نظام قضایی است. در ماه‌های اخیر، قضات در کشورهای مختلف با روند نگران‌کننده‌ای روبه‌رو شده‌اند: اسناد و لوایحی که با کمک هوش مصنوعی تهیه شده‌اند، اما شامل ارجاعات اشتباه یا حتی ساختگی به پرونده‌هایی هستند که وجود خارجی ندارند.

دمین شارلوتن، پژوهشگر حوزه تحلیل داده و حقوقدان فرانسوی، در این زمینه هشدار می‌دهد: او طی شش ماه گذشته دست‌کم ۴۹۰ پرونده را ثبت کرده که در آن‌ها «محتوای تولیدشده با هوش مصنوعی شامل اطلاعات نادرست یا ساختگی بوده است». به گفته‌ی او، «هرچه تعداد کاربران بیشتر می‌شود، سرعت بروز چنین ‘توهماتی’ هم افزایش می‌یابد». شارلوتن معتقد است حتی حرفه‌ای‌ترین کاربران نیز ممکن است دچار این مشکل شوند، زیرا «هوش مصنوعی همزمان با این که می‌تواند فوق‌العاده مفید باشد، اما دام‌های خود را هم دارد».

ماریا فلین، مدیرعامل سازمان «مشاغل برای آینده»، در گفت‌وگویی درباره نحوه استفاده درست از این ابزارها می‌گوید: «به هوش مصنوعی مثل یک کارآموز فکر کنید که وظیفه‌اش کمک به شماست، نه تصمیم‌گیری به‌جای شما.» او تأکید می‌کند که این فناوری می‌تواند در نگارش ایمیل‌ها، تنظیم برنامه سفر یا آماده‌سازی جلسات بسیار مفید باشد، اما نباید جایگزین قضاوت انسانی شود.

فلین تجربه شخصی‌اش را چنین بیان می‌کند: «زمانی که از ابزار داخلی هوش مصنوعی شرکت خود خواست پرسش‌هایی برای بحث گروهی پیشنهاد دهد، برخی سوالات بی‌ارتباط بودند؛ اما پس از بازخورد و اصلاح، ابزار توانست پنج سوال دقیق و مفید ارائه کند.» با این حال، او می‌گوید دقت خروجی‌ها همیشه باید بررسی شود، چراکه «گاهی ابزار تفاوت میان پروژه‌های انجام‌شده و پروژه‌های صرفاً پیشنهادی را تشخیص نمی‌داد». فلین توصیه می‌کند کاربران تازه‌کار همیشه از همکاران خود بپرسند که آیا نتایج درست به نظر می‌رسند یا خیر.

جاستین دنیلز، وکیل آمریکایی، نیز هشدار می‌دهد: «فقط چون پاسخ هوش مصنوعی منطقی یا باورپذیر است، به این معنی نیست که درست است. باید همیشه صحت آن را بررسی کرد، حتی اگر زمان‌بر باشد.»

از سوی دیگر، موضوع رضایت و حریم خصوصی هم چالش تازه‌ای است. دنیل کِیز، وکیل در شیکاگو، می‌گوید کاربران باید پیش از استفاده از ابزارهای یادداشت‌بردار یا ضبط خودکار، از نظر حقوقی اطمینان حاصل کنند، زیرا در برخی کشورها «ضبط صدا بدون رضایت همه شرکت‌کنندگان غیرقانونی است».

در نهایت، ماریا فلین تأکید می‌کند که کاربران باید از افشای اطلاعات محرمانه در ابزارهای عمومی خودداری کنند، چون «وقتی داده‌ای را به یک ابزار عمومی می‌دهید، ممکن است آن اطلاعات در پاسخ‌های دیگر کاربران هم ظاهر شود». او می‌گوید: «بزرگ‌ترین خطری که در یادگیری هوش مصنوعی وجود دارد، این است که اصلاً آن را یاد نگیریم. همه ما باید در استفاده از این فناوری به سطحی از سواد و تسلط برسیم؛ هرچه زودتر شروع کنیم، بهتر است.»

بازگشت به فهرست