مطالعه دانشمند استنفورد می گوید هوش مصنوعی می تواند با تحقیق در مورد FACE شما سیاست شما را بفهمد – RT World News

[ad_1]

میكاش كوسینسكی ، محقق مستقر در استنفورد ، كه می گوید جدیدترین مطالعه وی به 72 درصد دقت نسبت به محافظه كار لیبرال رسیده است ، می گوید الگوریتم های تشخیص چهره را می توان برای شناخت دیدگاه های سیاسی افراد آموزش داد.

کوسینسکی گفت ، الگوریتم های تشخیص چهره با آموزش صحیح می توانند جهت گیری سیاسی فرد را به درستی نزدیک به سه چهارم زمان حدس بزنند. کاغذ دوشنبه در گزارش های علمی منتشر شده است. با استفاده از بیش از یک میلیون حساب فیس بوک و سایت های دوست یابی در ایالات متحده ، انگلیس و کانادا ، الگوریتمی که او آزمایش کرد توانست محافظه کاران را از 72 درصد زوج ها به طور دقیق از لیبرال ها انتخاب کند.

این رقم ممکن است زیاد به نظر نرسد ، اما بخاطر داشته باشید که انتخاب تصادفی 50 درصد دقت را نشان می دهد ، در حالی که شخصی که می خواهد وابستگی سیاسی فرد را تعیین کند ، فقط به 55 درصد دقت می رسد. بر اساس این مطالعه ، حتی وقتی خصوصیات بارزی مانند سن و نژاد که با دیدگاههای سیاسی ارتباط دارند اصلاح شوند ، نرم افزار تشخیص چهره حدود 70 درصد دقیق باقی می ماند.

همانطور که به طور معمول از هوش مصنوعی است ، مشخص نیست که الگوریتم کدام ویژگی های دقیق را برای پیش بینی انتخاب کرده است. نویسندگان فرضیه ای تعلیم یافته را بیان کردند که جهت گیری سر و حالات احساسی از نشانه های مهمترین نشانه هاست. لیبرال ها به احتمال زیاد مستقیماً به دوربین نگاه می کنند و مثلاً متعجب تر از انزجار به نظر می رسند. از طرف دیگر ، ریش و عینک به سختی بر صحت پیش بینی ها تأثیر می گذارند.



همچنین در rt.com
پورتلند ، علیرغم تلاش 24000 دلاری آمازون برای لابی برای از بین بردن این ابتکار ، فناوری شناسایی چهره را بی سابقه تصویب کرد


یافته های این تحقیق بسیار فراتر رفته و به عمق حوزه های دیستوپی تشخیص چهره می پردازد. بر اساس معیارهای مختلفی که مردم بخشی از زندگی شخصی خود می دانند ، می توان از الگوریتم های غیرانسانی دقیق ، همراه با تصاویر موجود در دسترس میلیون ها نفر ، برای غربالگری افراد – بدون رضایت یا حتی دانش آنها – استفاده کرد. مطالعه قبلی کوسینسکی از این روش برای پیش بینی گرایش جنسی و او معتقد است همان فناوری می تواند آینده ای واقعاً کابوس را به همراه داشته باشد.

برای مثال لازم نیست خیلی دور شوید. Faception ، برنامه گزارش اقلیت اسرائیل ، با هدف پیش بینی نه تنها جایگاه یک شخص در طیف سیاسی ، بلکه احتمال یک فرد تروریست ، کودک دوست یا یک جنایتکار بزرگ دیگر نیز پیش بینی می شود. کارهای کوسینسکی در گذشته به شهرت زیادی رسیده است. توسعه دهنده Faception ، کوسینسکی را یکی از افرادی می داند که برای این محصول مورد مشاوره قرار گرفته اند ، اما او می گوید او فقط به آنها گفت كه نگران اخلاق خود است.

کارهای کوسینسکی همچنان بحث برانگیز است. 2017 “گیسو الگوریتمی” مطالعهبه عنوان مثال ، او توسط گروههای حمایت از LGBT در ایالات متحده هك شد ، و از عواقب آن ناراضی بود. این علم که توسط آن مورد انتقاد است توسط برخی دیگر از محققان هوش مصنوعی و روانشناسی مورد انتقاد قرار گرفته است و آنها گفته اند که این ویژگی های صورت را با علائم فرهنگی مرتبط می داند ، اما آنها در تز وی در مورد خطرات نظارت جمعی اختلاف نظر ندارند.

برخی دیگر بر این باورند که چنین تحقیقی چیزی غیر از تردستی نیست ، با توجه به اینکه شباهت زیادی به علم شبه بدنام فیزیولوژی دارد. طرفداران استدلال کرده اند که آنها می توانند شخصیت ، شخصیت یا حتی تمایلات جنایی فرد را در شکل صورت او درک کنند – اما در عمل ، پیش بینی های آنها بیشتر درباره تعصبات آنها نشان می دهد. محقق همچنین این رشته را محکوم کرد “بر اساس تحقیقات غیر علمی ، خرافات ، شواهد حکایتی و شبه نظریه های نژادپرستانه” ، اما او اصرار دارد که رویکرد AI محور عمل کند.

نام کوسینسکی گاهی اوقات در ارتباط با کمبریج آنالیتیکا ذکر شده است ، این شرکت اکنون منقرض شده است که به طور دسته جمعی اطلاعات را از فیس بوک جمع آوری می کند و می گوید که می تواند از آن برای انجام مبارزات سیاسی بسیار هدفمند استفاده کند. رابطه هرگز واقعاً وجود نداشته است به نظر می رسد برگرفته از “بیانیه های مطبوعاتی نادرست” از زمانی که رسوایی پیرامون مدل مشکوک تجاری این شرکت برای اولین بار در سال 2018 آغاز شد.

یادداشت تحریریه: این داستان از طریق اولین انتشار توسط RT اصلاح شده است تا اهداف بیان شده تحقیق میشال کوسینسکی در مورد برنامه های تشخیص چهره را بهتر انعکاس دهد و به درستی بیان کند که با کمبریج آنالیتیکا ارتباط ندارد.

[ad_2]

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.