رفتن به محتوا رفتن به فوتر

هوش مصنوعی در روانشناسی

چگونه روانشناسی تجربی می تواند به تولید هوش مصنوعی قابل توضیح کمک کند؟

هوش مصنوعی با استفاده از شبکه‌های عصبی عمیق به سطحی از پیچیدگی رسیده است که بیان نحوه تصمیم‌گیری یک مدل دشوار یا غیرممکن است. این مشکل جعبه سیاه به ویژه زمانی نگران کننده است که مدل تصمیماتی با عواقب برای رفاه انسان می گیرد.

در پاسخ، یک زمینه نوظهور به نام هوش مصنوعی قابل توضیح (XAI) با هدف افزایش تفسیرپذیری، انصاف و شفافیت یادگیری ماشینی است. در اینجا ، ما توضیح می دهیم که چگونه روانشناسان شناختی می توانند به XAI کمک کنند. ذهن انسان نیز یک جعبه سیاه است و روانشناسان شناختی بیش از 150 سال تجربه در مدل سازی آن از طریق آزمایش دارند.

ما باید روش‌ها و دقت روان‌شناسی شناختی را به مطالعه جعبه‌های سیاه مصنوعی در خدمت توضیح‌پذیری ترجمه کنیم. ما مروری بر XAI برای روانشناسان ارائه می دهیم، با این استدلال که روش های فعلی نقطه کوری دارند که می تواند با سنت شناختی تجربی تکمیل شود.

ما همچنین چارچوبی برای تحقیق در XAI ارائه می دهیم، موارد نمونه آزمایشی در XAI را با الهام از علم روانشناسی برجسته می کنیم و آموزشی در مورد آزمایش با ماشین ها ارائه می دهیم. ما با اشاره به مزایای رویکرد تجربی و دعوت از روانشناسان دیگر برای انجام تحقیقات در این زمینه جدید هیجان انگیز پایان می دهیم.

گردآوری : هدی پوررجبی – کارشناس ارشد مهندسی فناوری اطلاعات

Hoda Pourrajabi

ارسال نظر

Follow by Email
LinkedIn
Instagram