امکان درز اطلاعات از طریق پلتفرمهای هوش مصنوعی وجود دارد؟
تاریخ انتشار: ۴ تیر ۱۴۰۲ | کد خبر: ۳۸۰۶۲۱۶۱
ایتنا - محققان در یک مقاله تحقیقاتی توضیح دادند که چگونه دادهها میتوانند از پلتفرمهای مبتنی بر هوش مصنوعی مولد درز پیدا کنند.
گروهی از محققان دانشگاههای آمریکا و سوئیس، با همکاری گوگل و شرکت زیرمجموعه آن DeepMind با انجام یک تحقیق مشترک به بررسی امکان درز اطلاعات از طریق پلتفرمهای مبتنی بر هوش مصنوعی پرداختند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
مدلهای مولد هوش مصنوعی مورد استفاده در این پلتفرمها بر روی تعداد بسیار زیادی از تصاویر با توضیحات از پیش تعیین شده آموزش دیده بودند. ایده این بود که شبکههای عصبی پس از پردازش حجم عظیمی از دادههای آموزشی قادر به تولید تصاویر جدید و منحصر به فرد هستند.
با این حال، مطالعه جدید نشان داده است که این تصاویر همیشه منحصر به فرد نیستند، به گونهای که در برخی موارد، شبکه عصبی دقیقا تصویری را مطابق با تصویر استفاده شده در آموزش قبلی بازتولید میکند.
این مطالعه دیدگاههایی را به چالش میکشد که معتقد هستند مدلهای هوش مصنوعی که برای تولید تصاویر استفاده میشوند، دادههای آموزشی خود را ذخیره نمیکنند، و اینکه دادههای آموزشی میتواند در صورت عدم افشا، خصوصی باقی بمانند.
نتایج سیستمهای یادگیری عمیق میتواند برای افراد غیرمتخصص شگفتانگیز باشد، اما در واقع هیچ سحر و جادویی در این موضوع وجود ندارد، زیرا همه شبکههای عصبی کار خود را بر اساس یک اصل یعنی آموزش و با استفاده از مجموعهای بزرگ از دادهها و توضیحات دقیق هر تصویر مانند مجموعهای از تصاویر گربهها و سگها انجام میدهند.
پس از آموزش، شبکه عصبی تصویر جدیدی را نمایش میدهد و از او خواسته میشود تا مشخص کند که این تصویر گربه است یا سگ. از این نکته کوچک، توسعهدهندگان این مدلها به سناریوهای پیچیدهتر منتقل میشوند و با استفاده از الگوریتمی که روی تصاویر بسیاری از گربهها آموزش داده شده، تصویری از یک حیوان خانگی که وجود ندارد، میسازند. این آزمایشها نه تنها با تصاویر، بلکه با متن، ویدئو و حتی صدا نیز انجام میشود.
نقطه شروع برای همه شبکههای عصبی، مجموعهای از دادههای آموزشی است. شبکههای عصبی نمیتوانند اشیاء جدیدی را از خود ایجاد کنند. به عنوان مثال، برای ایجاد تصویری از یک گربه، الگوریتم باید هزاران عکس یا نقاشی واقعی از گربهها را مطالعه کند.
تلاش های زیاد برای محرمانه نگه داشتن مجموعه دادهها
محققان در مقاله خود توجه ویژهای به مدلهای یادگیری ماشینی داشته اند. آنها به شرح زیر عمل کرده اند: دادههای آموزشی (اعم از تصاویر افراد، ماشین ها، خانهها و...) را با اضافه کردن نویز تحریف میکنند. سپس شبکه عصبی برای بازیابی این تصاویر به حالت اولیه آموزش داده میشود.
این روش امکان تولید تصاویر با کیفیت قابل قبول را فراهم میکند، اما یک نقطه ضعف بالقوه آن در مقایسه با الگوریتمها در شبکههای رقابتی مولد، تمایل بیشتر آن به درز دادهها است؛ به گونهای که دادههای اصلی را میتوان حداقل به سه روش مختلف از آن استخراج کرد:
- استفاده از پرسشهای خاص برای وادار کردن شبکه عصبی برای خارج کردن یک تصویر منبع خاص و نه چیزی منحصر به فرد که بر اساس هزاران تصویر ایجاد شده است.
- تصویر اصلی حتی اگر تنها بخشی از آن موجود باشد قابل بازسازی است.
- به سادگی میتوان تعیین کرد که آیا یک تصویر خاص در دادههای آموزشی گنجانده شده است یا خیر.
بسیاری از اوقات، شبکههای عصبی تنبل هستند و به جای تولید یک تصویر جدید، اگر دارای چندین تکرار از یک تصویر باشد، چیزی از مجموعه آموزشی را تولید میکنند؛ بنابراین اگر تصویری بیش از صد بار در مجموعه آموزشی تکرار شود، احتمال لو رفتن آن به شکل تقریباً اصلی بسیار زیاد است.
با این حال، محققان راههایی را برای بازیابی تصاویر آموزشی نمایش داده اند که تنها یک بار در مجموعه اصلی ظاهر شده است؛ به گونهای که از بین ۵۰۰ تصویری که محققان آزمایش کرده اند، این الگو به طور تصادفی سه مورد از آنها را ایجاد کرده است.
در ژانویه ۲۰۲۳، سه هنرمند از پلتفرمهای تولید تصویر مبتنی بر هوش مصنوعی به دلیل استفاده از تصاویر آنلاین خود برای آموزش مدل هایشان بدون رعایت حق چاپ شکایت کردند.
یک شبکه عصبی در واقع میتواند سبک یک هنرمند را کپی کند و در نتیجه او را از درآمد محروم کند. این مقاله تاکید دارد که در برخی موارد، الگوریتمها میتوانند به دلایل مختلف دست به سرقت علمی واقعی بزنند و نقاشیها، عکسها و تصاویر دیگری تولید کنند که تقریباً مشابه کار افراد واقعی است؛ بنابراین محققان توصیههایی را برای تقویت خصوصی سازی مجموعه آموزشی اصلی ارائه کرده اند:
۱- حذف تکرار در گروههای آموزشی.
۲- پردازش مجدد تصاویر آموزشی، به عنوان مثال با اضافه کردن نویز یا تغییر روشنایی. این باعث میشود احتمال نشت دادهها کمتر شود.
۳- تست الگوریتم با استفاده از تصاویر آموزشی ویژه و سپس بررسی عدم بازتولید ناخواسته آن با دقت.
منبع: باشگاه خبرنگاران جوان
منبع: ايتنا
کلیدواژه: داده های آموزشی شبکه های عصبی هوش مصنوعی پلتفرم ها شبکه عصبی یک تصویر داده ها مدل ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.itna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۰۶۲۱۶۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی گرایش سیاسی افراد را از چهرهشان میخواند
ایتنا - مطالعهای جدید میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی میتواند گرایش سیاسی افراد را از روی چهرههای بدون حالت و بیاحساس پیشبینی کند، محققان هشدار دادند که فناوریهای تشخیص چهره از آنچه قبلا به نظر میرسید، «تهدیدآمیزتر» شده و برای حریم خصوصی چالش جدی به وجود آوردهاند.
مطالعهای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکتکننده قبل از آنکه هوش مصنوعی آنها را چهرهنگاری (استخراج اطلاعات مخصوص و منحصربهفرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامهای درباره گرایش سیاسی خود پر کردند. سپس دادههای چهرهنگاری را با پاسخ پرسشنامههای جهتگیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهرهها به دست آورده بود، جهتگیری سیاسی هر شخص را پیشبینی کند.
کوزینسکی میگوید: «فکر میکنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصیشان را برای دیگران فاش میکنند.»
او افزود: «ما میدانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما میتوانستید به حساب کاربری فیسبوک افراد وارد شوید و به عنوان مثال گرایشهای سیاسی، آنچه را که پسند میکنند (لایک میزنند) و صفحاتی را که دنبال کردهاند، ببینید. اما فیسبوک سالها پیش آن را بست زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»
کوسینسکی افزود: «در حال حاضر نیز هر کس میتواند به فیسبوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچوقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان میدهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهتگیری سیاسی آنها باشد.»
محققان میگویند که تصاویر افراد شرکتکننده در این پژوهش را در شرایطی بسیار مشخص و کنترلشده جمعآوری کردند. به این ترتیب که این افراد همگی تیشرتهای مشکی پوشیده و زیورآلاتشان را در آورده بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهرهها را از طریق الگوریتم چهره ویجیجی فیس۲ (VGGFace2) بررسی کردند.
محققان هشدار میدهند که فناوریهای نظارت بیومتریکی، به ویژه فناوریهای تشخیص چهره، تهدیدی جدیتر از گذشته برای حریم شخصی افرادند. پژوهشهای پیشتر نیز نشان داده بودند که تصاویر طبیعی چهره میتواند اطلاعات مهمی را درباره جهتگیری سیاسی و ویژگیهای شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیشبینیها به دلیل نحوه ارائه شخص و ویژگیهای ثابت چهره (خنثی) فعال شدهاند یا هر دو این عوامل. محققان میگویند، نتایج ما نشان میدهند که ویژگیهای ثابت چهره در انتقال این سیگنالها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاههای نظارتی میرسد.
به گفته کوزینسکی، این الگوریتمها را میتوان بسیار سریع و ارزان برای میلیونها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوریهایی است که در گوشیها وجود دارد و به طور گسترده در همهجا استفاده میشود.