Web Analytics Made Easy - Statcounter
به نقل از «خبرگزاری برنا»
2024-04-25@21:16:12 GMT

احساسات هوش مصنوعی ChatGPT قوی‌تر از انسان

تاریخ انتشار: ۲۶ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۷۵۹۶۲۹

احساسات هوش مصنوعی ChatGPT قوی‌تر از انسان

یک پژوهش جدید نشان داده است که ChatGPT توانایی قابل توجهی را در درک و بیان احساسات بروز می‌دهد.

خبرگزاری برنا؛ پژوهش جدیدی که در امپریال کالج لندن انجام شده است، از مقیاس سطح آگاهی عاطفی برای ارزیابی پاسخ‌های ChatGPT (چت جی‌پی‌تی) به سناریوهای گوناگون و مقایسه عملکرد آن با هنجارهای عمومی استفاده کرد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

این چت‌بات مبتنی بر هوش مصنوعی نه تنها از میانگین عملکرد انسان بهتر عمل کرد، بلکه به مرور زمان پیشرفت قابل توجهی را نشان داد.

یافته‌های این پژوهش نشان می‌دهند که ChatGPT می‌تواند فناوری ارزشمندی در آموزش شناختی افراد مبتلا به اختلالات آگاهی عاطفی باشد و همچنین، تشخیص و ارزیابی روانپزشکی را آسان‌تر کند

با وجود این، فراتر از مهارت زبانی این فناوری، مرز جدیدی وجود دارد که باید مورد بررسی قرار بگیرد؛ این که آیا ChatGPT می‌تواند احساسات را درک و بیان کند یا خیر؟

آگاهی عاطفی، توانایی تشخیص و بیان احساسات خود و دیگران است. این توانایی، یک عامل مهم در تعامل انسانی به شمار می‌رود و به عنوان یک توانایی ارزشمند در تشخیص و درمان آسیب‌شناسی روانی شناخته می‌شود. پژوهش امپریال کالج لندن، با هدف تعیین کمیت قابلیت‌های آگاهی عاطفی ChatGPT و با استفاده از مقیاس سطح آگاهی عاطفی به عنوان یک معیار انجام شد.

نتایج این پژوهش، بسیار امیدوارکننده بودند. در بررسی اولیه، ChatGPT نسبت به انسان، عملکرد بهتری را در همه مقیاس‌های سطح آگاهی عاطفی داشت. در ارزیابی بعدی، عملکرد چت‌بات به طور چشمگیری بهبود یافت و تقریبا به حداکثر امتیاز ممکن در مقیاس سطح آگاهی عاطفی رسید. دقت پاسخ‌های آن نیز امتیاز فوق‌العاده بالایی را به دست آورد.

این پژوهش نه تنها نشان می‌دهد که ChatGPT قادر به ایجاد پاسخ‌های احساسی دقیق متنی است، بلکه عملکرد آن به طور قابل توجهی به مرور زمان بهبود می‌یابد. این قابلیت می‌تواند پیامدهای نظری و بالینی عمیقی داشته باشد. به عنوان مثال، ChatGPT می‌تواند در برنامه‌های آموزشی شناختی برای بیماران مبتلا به اختلالات آگاهی عاطفی گنجانده شود. توانایی این چت‌بات در بیان احساسات نیز ممکن است تشخیص و ارزیابی روانپزشکی را سهولت ببخشد و به پیشرفت زبان عاطفی کمک کند.

در هر حال، مانند هر فناوری در حال ظهور، خطرات احتمالی وجود دارند که باید به دقت ارزیابی شوند. انجام دادن پژوهش‌های بیشتر و اصلاح ChatGPT ضروری است تا اطمینان حاصل شود که سلامت روان را به شیوه‌ای ایمن و سودمند ارتقا می‌دهد.

به رغم لزوم اقدامات احتیاطی، این پژوهش جهش قابل توجهی را در ادغام آگاهی عاطفی با سیستم‌های هوش مصنوعی نشان می‌دهد.

انتهای پیام/

آیا این خبر مفید بود؟

نتیجه بر اساس رای موافق و رای مخالف

منبع: خبرگزاری برنا

کلیدواژه: درمان سلامت روان فناوری لندن هوش مصنوعی علم وفناوری ChatGPT قابل توجهی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.borna.news دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرگزاری برنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۷۵۹۶۲۹ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

تشخیص گرایش سیاسی افراد از روی چهره‌شان توسط هوش مصنوعی

هوش مصنوعی می‌تواند جهت‌گیری سیاسی افراد را از روی چهره‌های‌شان پیش‌بینی کند که البته مباحثی را درباره تهدید حریم خصوصی به میان آورده است.

به گزارش ایسنا، پژوهشگران پس از مطالعه‌ای که نشان داد هوش مصنوعی می‌تواند در پیش‌بینی جهت‌گیری سیاسی افراد بر اساس تصاویر چهره‌های بدون حالت و بی احساس آنها موفق باشد، هشدار می‌دهند که فناوری‌های تشخیص چهره «تهدیدکننده‌تر از آنچه قبلاً تصور می‌شد» هستند و «چالش‌های جدی برای حفظ حریم خصوصی» ایجاد می‌کنند،

به نقل از نیویورک پست، مطالعه‌ای که به تازگی در مجله American Psychologist  منتشر شده است، می‌گوید که توانایی الگوریتم هوش مصنوعی برای حدس زدن دقیق دیدگاه‌های سیاسی یک فرد خیره کننده است.

مایال کوزینسکی نویسنده اصلی این مطالعه گفت که ۵۹۱ شرکت‌کننده یک پرسشنامه درباره گرایش سیاسی را قبل از اینکه هوش مصنوعی گرایش سیاسی آنها را از چهره‌شان توصیف کند، پر کردند و هوش مصنوعی تحلیل خود را با پایگاه ‌داده حاصل از آن پرسشنامه‌ها برای پیش‌بینی گرایش سیاسی آنها مقایسه کرد.

کوزینسکی که دانشیار رفتار سازمانی در دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد است، می‌گوید: من فکر می‌کنم که مردم متوجه نمی‌شوند که صرفاً با در اختیار قرار دادن یک عکس، چقدر خود را در معرض شناخت قرار می‌دهند.

ما می‌دانیم که گرایش جنسی، گرایش سیاسی و دیدگاه‌های مذهبی مردم باید محافظت شود. این قبلا متفاوت بود. در گذشته می‌توانستید به حساب فیسبوک هر کسی وارد شوید و مثلاً دیدگاه‌های سیاسی، پسندها و صفحاتی که دنبال می‌کند را ببینید. اما سالها پیش فیسبوک این قابلیت را مسدود کرد، زیرا برای سیاست‌گذاران، فیسبوک و روزنامه‌نگاران واضح بود که از نظر حریم خصوصی قابل قبول نیست و خیلی خطرناک است.

اما همچنان می‌توان به فیسبوک رفت و عکس هر کسی را دید. شخصی که عکسش را می‌بینید احتمالا هرگز شما را ندیده است و هرگز گرایش سیاسی خود را با شما به اشتراک نگذاشته است. با این حال، آنچه این مطالعه جدید نشان داده این است که تنها از روی عکس یک فرد، هر چند بدون احساس و حالت باشد، گرایش سیاسی وی را حدس زد.

پژوهشگران برای این مطالعه تصاویر شرکت کنندگان را به شیوه‌ای بسیار کنترل شده جمع‌آوری کردند.

آنها می‌گویند شرکت کنندگان یک تیشرت مشکی ساده پوشیده بودند و زیورآلات خود را درآورده بودند و در صورت لزوم ریش خود را اصلاح کرده بودند. سپس از دستمال مرطوب صورت برای از بین بردن لوازم آرایشی استفاده شد تا زمانی که هیچ چیز روی پوست آنها باقی نماند. موهای بلند آنها با استفاده از کش مو، سنجاق مو و هدبند به عقب کشیده شد و در عین حال مراقب بودند که موهایشان بیرون نیاید.

سپس الگوریتم تشخیص چهره VGGFace۲ تصاویر چهره آنها را بررسی کرد.

نویسندگان می‌گویند، یافته‌های آنها بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی افراد تأکید می‌کند.

آنها افزودند: شاید مهم‌تر از همه اینکه یافته‌های ما نشان می‌دهد که فناوری‌های نظارت بیومتریک گسترده‌تر از آنچه قبلا تصور می‌شد، تهدیدکننده هستند. در هر حال نتایج ما نشان می‌دهد که ویژگی‌های صورت حتی در حالت خنثی و بدون ابراز احساسات نیز مقدار قابل توجهی از نشانه‌ها را منتقل می‌کند که استفاده از فناوری تشخیص چهره می‌تواند نشان دهنده کنترل کمتر افراد بر حریم خصوصی خود باشد.

کوزینسکی می‌گوید، الگوریتم‌ها را می‌توان به راحتی برای میلیون‌ها نفر به شکل بسیار سریع و ارزان اعمال کرد و مطالعه ما بیشتر یک داستان هشداردهنده در مورد این فناوری است که در تلفن همه وجود دارد و در همه جا به وفور استفاده می‌شود.

پژوهشگران در پایان به این نتیجه رسیدند که حتی تخمین‌های خام از ویژگی‌های شخصیتی افراد می‌تواند کارایی کمپین‌های متقاعدسازی انبوه آنلاین را به ‌طور قابل توجهی بهبود بخشد و پژوهشگران، مردم و سیاست‌گذاران باید توجه داشته باشند و سیاست‌های سخت‌گیرانه‌ای را برای تنظیم ضبط و پردازش تصاویر چهره در نظر بگیرند.

انتهای پیام

دیگر خبرها

  • تشخیص گرایش سیاسی افراد از روی چهره‌شان توسط هوش مصنوعی
  • آیا انسان واقعا «اختیار» دارد؟ اسپینوزا پاسخ می‌دهد
  • دو روی سکه هوش مصنوعی در گزارش سال ۲۰۲۴ دانشگاه استنفورد
  • وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی
  • هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند
  • واکنش ضرغامی به گزارش مرکز پژوهش‌های مجلس/ وزیر میراث فرهنگی و گردشگری: این که گفته می‌شود سفر از سبد خانوار حذف شده حتما نادرست است و همان چیزی است که دشمن می‌خواهد
  • مخاطرات عدم سرمایه‌گذاری متوازن در زیست‌بوم هوش مصنوعی
  • اگر مراقب خودتان باشید، فرزند سالم‌تری خواهید داشت/ خطرات استرس مادر بر جنین
  • قد هوش مصنوعی کی به قامت دانایی انسان می‌رسد؟
  • آنچه ابن سینا می‌تواند در مورد هوش مصنوعی به ما بیاموزد