اعتمادبهنفس کاذب توسط هدایت دیجیتال
الگوریتمهای شخصیسازیشده میتوانند درک انسان را در حوزههای گستردهای تحریف کند.
به گزارش پایگاه علمی خبری دانه، طی گزارشی که در مجله Journal of Experimental Psychology: General منتشر شده است، الگوریتمهای شخصیسازیشده ممکن است پنهانی روند یادگیری انسان را مختل کنند و او را (حتی بدون هیچ دانش پیشین از موضوع) به سمت دالانههای باریک اطلاعاتی بکشانند. شرکتکنندگان در این مطالعه هنگام استفاده از سرنخهایی که الگوریتمها انتخاب کرده بودند کمتر کاوش کردند، نسخهای تحریفشده از واقعیت آموختند و با اعتمادبهنفسی عجیب، پاسخهای نادرست دادند. این پژوهش نشان میدهد این شکل از هدایت دیجیتال فقط دیدگاهها را شکل نمیدهد. بلکه میتواند بنیان آنچه فرد فکر میکند فهمیده است را نیز تغییر دهد.
سامانههای توصیهگر شخصیسازیشده در پلتفرمهایی مانند یوتیوب ممکن است در روند یادگیری افراد نیز دخالت کنند. پژوهش تازه نشان میدهد وقتی یک الگوریتم تصمیم میگیرد چه اطلاعاتی در یک تکلیف یادگیری نمایش داده شود، افرادی که هیچ دانشی دربارهٔ موضوع ندارند فقط روی بخش کوچکی از اطلاعات تمرکز میکنند.
چون این افراد بخش کمی از مواد آموزشی را جستوجو کردند، در آزمونهای بعدی اغلب پاسخهای نادرست دادند. باوجود اشتباه بودن پاسخها، اعتمادبهنفس بالایی نسبت به آنها داشتند.
این نتایج نگرانکننده است؛ به گفتهٔ گیوون باگ، پژوهشگری که بهعنوان بخشی از رسالهٔ دکتری خود در روانشناسی در دانشگاه اوهایو این کار را انجام داده است.
الگوریتمها حتی بدون دانش پیشین نیز میتوانند سوگیری ایجاد کنند
بیشتر پژوهشهای موجود دربارهٔ الگوریتمهای شخصیسازیشده روی تأثیر آنها بر نظرات سیاسی یا اجتماعی متمرکز است؛ موضوعاتی که مردم معمولاً دربارهٔ آنها اطلاعاتی دارند.
باگ، پژوهشیار پسادکتری در دانشگاه ایالتی پنسیلوانیا:
«اما مطالعهٔ ما نشان میدهد حتی زمانی که دربارهٔ موضوعی هیچ نمیدانید، این الگوریتمها فوراً شروع به ساختن سوگیری میکنند و میتوانند دیدگاهی تحریفشده از واقعیت ایجاد کنند.»
براندون ترنر، نویسندهٔ همکار و استاد روانشناسی دانشگاه اوهایو، میگوید نتایج نشان میدهد مردم ممکن است اطلاعات محدود ارائهشده توسط الگوریتمها را بگیرند و از آن نتیجهگیریهای گسترده و اغلب بیپایه انجام دهند.
«وقتی افراد از یک الگوریتم پیروی میکنند، اطلاعات زیادی را از دست میدهند، اما تصور میکنند همان مقدار اندک دانشی که دارند بهخوبی به ویژگیها و بخشهایی از محیط که هرگز تجربه نکردهاند تعمیم مییابد.»
آزمون با فیلمها
برای توضیح شکلگیری این سوگیری، پژوهشگران سناریویی ساده مطرح کردند: فردی که هرگز فیلمهای یک کشور خاص را ندیده، تصمیم میگیرد آنها را امتحان کند. سرویس استریم به او پیشنهادهایی ارائه میدهد.
فرد یک تریلر اکشن را انتخاب میکند؛ چون بالاترین پیشنهاد است. الگوریتم سپس تریلرهای اکشن بیشتری را پیشنهاد میدهد و فرد همانها را تماشا میکند.
«اگر هدف این فرد (چه آشکار، چه پنهان) شناخت کلی سینمای آن کشور باشد، پیشنهادهای الگوریتمی در نهایت فهم او را بهشدت سوگیرانه میکند.»
با دیدن تنها یک ژانر، این فرد ممکن است فیلمهای ارزشمند دیگر ژانرها را نبیند و حتی برداشتهای نادرست و بیش از حد کلی دربارهٔ فرهنگ یا جامعهٔ آن کشور پیدا کند.
آزمودن اثر الگوریتم با موجودات خیالی
باگ و همکارانش این ایده را با ۳۴۶ شرکتکننده آزمایش کردند. برای اینکه هیچکس با دانش قبلی وارد نشود، پژوهشگران از یک تکلیف یادگیری کاملاً خیالی استفاده کردند.
شرکتکنندگان چند نوع موجود بیگانهٔ بلور مانند را مطالعه کردند. هر موجود شش ویژگی داشت که بین دستهها متفاوت بود. برای مثال، بخشی مربعیشکل در برخی انواع مشکی و در برخی دیگر خاکستری روشن بود.
هدف این بود که شرکتکنندگان یاد بگیرند هر نوع بیگانه چگونه شناسایی میشود، بدون اینکه تعداد انواع را بدانند.
در آزمایش، ویژگیهای بیگانهها پشت مربعهای خاکستری پنهان شده بود. در یک شرایط، شرکتکنندگان باید برای مشاهدهٔ همهٔ ویژگیها روی همهٔ مربعها کلیک میکردند.
در شرایط دیگر، شرکتکنندگان آزاد بودند هر ویژگی را که میخواهند بررسی کنند، اما یک الگوریتم شخصیسازیشده تعیین میکرد کدام ویژگیها با احتمال بیشتری توسط آنها بررسی شود. این الگوریتم باعث میشد افراد به طور مکرر سراغ همان ویژگیهای خاص بروند و حتی بتوانند برخی ویژگیها را کاملاً نادیده بگیرند.
نتایج نشان داد شرکتکنندگانی که الگوریتم مسیر یادگیریشان را هدایت میکرد:
ویژگیهای کمتری را مشاهده کردند. آنها را بهصورت الگوواره و گزینشی دیدند. در آزمون با نمونههای جدید اغلب بیگانهها را اشتباه طبقهبندی کردند. اما باوجود اشتباه بودن پاسخها اعتمادبهنفس بالایی داشتند.
باگ میگوید: «وقتی اشتباه پاسخ میدادند، حتی بیشتر از زمانی که جواب درست میدادند مطمئن بودند و این نگرانکننده است، چون دانش کمتری داشتند.»
ترنر یادآور شد این یافتهها پیامدهای مهمی در دنیای واقعی دارند.



