گزارشها حاکی از آن هستند که «اپل» قصد دارد دستیار صوتی «سیری» را به یک چتبات هوش مصنوعی تبدیل کند.
۳۹ مطلب
گزارشها حاکی از آن هستند که «اپل» قصد دارد دستیار صوتی «سیری» را به یک چتبات هوش مصنوعی تبدیل کند.
یک آزمایش ساده به ما نشان میدهد که هنگام استفاده از هوش مصنوعی باید هوشیار بمانیم و بدانیم که پاسخها همیشه درست و بر اساس حقیقت نیستند.
سال ۲۰۲۵ نقطه عطفی بود که در آن هوش مصنوعی با تأثیرگذاری همزمان بر اقتصاد، سیاست، سلامت روان و بازار کار، جهان را وارد مرحلهای تازه از تغییرات عمیق و گاه نگرانکننده کرد.
استفاده افراطی از چتباتهای هوش مصنوعی میتواند توهمات و بحرانهای شدید روانی را در افراد آسیبپذیر تقویت کند.
پژوهشی تازه نشان میدهد چتباتهای هوش مصنوعی که نقش درمانگر را بر عهده میگیرند، با وجود ظاهر حرفهای، در عمل دچار تخلفات اخلاقی جدی میشوند.
یک مطالعه تازه نشان میدهد که ترکیب خلاقیت و زبان شاعرانه میتواند از سد بسیاری از محدودیتهای امنیتی چتباتهای هوش مصنوعی عبور کند؛ یافتهای که زنگ خطر جدی برای سازندگان مدلهای زبانی بزرگ به صدا درآورده است.
پژوهش جدید دانشگاه براون نشان میدهد چتباتهای هوش مصنوعی که کاربران آنها را بهعنوان «مشاور روانی» به کار میگیرند، گاهی مرتکب خطاهای خطرناکی میشوند؛ از تأیید افکار خودکشی تا تقویت باورهای مخرب. پژوهشگران هشدار میدهند بدون نظارت و استانداردهای اخلاقی، این ابزارهای محبوب میتوانند بهجای کمک، آسیبزا باشند.
چتبات ChatGPT بسیار هوشمند یک مشکل اساسی دارد و آن اینکه، نمیتواند ساعت دقیق را به کاربران بگوید.
تحقیقات جدید پژوهشگران نشان میدهد چَتباتهای هوش مصنوعی در نقش رواندرمانگر، مرتکب خطاهای خطرناکی میشوند؛ از تأیید افکار خودکشی گرفته تا تقویت باورهای مخرب.
دیپاک چوپرا معتقد است بهترین کاربرد چتباتهای هوش مصنوعی، نه جایگزینی روابط انسانی بلکه کمک به خودشناسی و تقویت آگاهی فردی است.