Web Analytics Made Easy - Statcounter

ایتنا - محققان در یک مقاله تحقیقاتی توضیح دادند که چگونه داده‌ها می‌توانند از پلتفرم‌های مبتنی بر هوش مصنوعی مولد درز پیدا کنند.
گروهی از محققان دانشگاه‌های آمریکا و سوئیس، با همکاری گوگل و شرکت زیرمجموعه آن DeepMind با انجام یک تحقیق مشترک به بررسی امکان درز اطلاعات از طریق پلتفرم‌های مبتنی بر هوش مصنوعی پرداختند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

 

مدل‌های مولد هوش مصنوعی مورد استفاده در این پلتفرم‌ها بر روی تعداد بسیار زیادی از تصاویر با توضیحات از پیش تعیین شده آموزش دیده بودند. ایده این بود که شبکه‌های عصبی پس از پردازش حجم عظیمی از داده‌های آموزشی قادر به تولید تصاویر جدید و منحصر به فرد هستند.

با این حال، مطالعه جدید نشان داده است که این تصاویر همیشه منحصر به فرد نیستند، به گونه‌ای که در برخی موارد، شبکه عصبی دقیقا تصویری را مطابق با تصویر استفاده شده در آموزش قبلی بازتولید می‌کند.

این مطالعه دیدگاه‌هایی را به چالش می‌کشد که معتقد هستند مدل‌های هوش مصنوعی که برای تولید تصاویر استفاده می‌شوند، داده‌های آموزشی خود را ذخیره نمی‌کنند، و اینکه داده‌های آموزشی می‌تواند در صورت عدم افشا، خصوصی باقی بمانند.

نتایج سیستم‌های یادگیری عمیق می‌تواند برای افراد غیرمتخصص شگفت‌انگیز باشد، اما در واقع هیچ سحر و جادویی در این موضوع وجود ندارد، زیرا همه شبکه‌های عصبی کار خود را بر اساس یک اصل یعنی آموزش و با استفاده از مجموعه‌ای بزرگ از داده‌ها و توضیحات دقیق هر تصویر مانند مجموعه‌ای از تصاویر گربه‌ها و سگ‌ها انجام می‌دهند.

پس از آموزش، شبکه عصبی تصویر جدیدی را نمایش می‌دهد و از او خواسته می‌شود تا مشخص کند که این تصویر گربه است یا سگ. از این نکته کوچک، توسعه‌دهندگان این مدل‌ها به سناریو‌های پیچیده‌تر منتقل می‌شوند و با استفاده از الگوریتمی که روی تصاویر بسیاری از گربه‌ها آموزش داده شده، تصویری از یک حیوان خانگی که وجود ندارد، می‌سازند. این آزمایش‌ها نه تنها با تصاویر، بلکه با متن، ویدئو و حتی صدا نیز انجام می‌شود.

نقطه شروع برای همه شبکه‌های عصبی، مجموعه‌ای از داده‌های آموزشی است. شبکه‌های عصبی نمی‌توانند اشیاء جدیدی را از خود ایجاد کنند. به عنوان مثال، برای ایجاد تصویری از یک گربه، الگوریتم باید هزاران عکس یا نقاشی واقعی از گربه‌ها را مطالعه کند.

تلاش های زیاد برای محرمانه نگه داشتن مجموعه داده‌ها
محققان در مقاله خود توجه ویژه‌ای به مدل‌های یادگیری ماشینی داشته اند. آن‌ها به شرح زیر عمل کرده اند: داده‌های آموزشی (اعم از تصاویر افراد، ماشین ها، خانه‌ها و...) را با اضافه کردن نویز تحریف می‌کنند. سپس شبکه عصبی برای بازیابی این تصاویر به حالت اولیه آموزش داده می‌شود. 

این روش امکان تولید تصاویر با کیفیت قابل قبول را فراهم می‌کند، اما یک نقطه ضعف بالقوه آن در مقایسه با الگوریتم‌ها در شبکه‌های رقابتی مولد، تمایل بیشتر آن به درز داده‌ها است؛ به گونه‌ای که داده‌های اصلی را می‌توان حداقل به سه روش مختلف از آن استخراج کرد:

- استفاده از پرسش‌های خاص برای وادار کردن شبکه عصبی برای خارج کردن یک تصویر منبع خاص و نه چیزی منحصر به فرد که بر اساس هزاران تصویر ایجاد شده است.
- تصویر اصلی حتی اگر تنها بخشی از آن موجود باشد قابل بازسازی است.
- به سادگی می‌توان تعیین کرد که آیا یک تصویر خاص در داده‌های آموزشی گنجانده شده است یا خیر.

بسیاری از اوقات، شبکه‌های عصبی تنبل هستند و به جای تولید یک تصویر جدید، اگر دارای چندین تکرار از یک تصویر باشد، چیزی از مجموعه آموزشی را تولید می‌کنند؛ بنابراین اگر تصویری بیش از صد بار در مجموعه آموزشی تکرار شود، احتمال لو رفتن آن به شکل تقریباً اصلی بسیار زیاد است.

با این حال، محققان راه‌هایی را برای بازیابی تصاویر آموزشی نمایش داده اند که تنها یک بار در مجموعه اصلی ظاهر شده است؛ به گونه‌ای که از بین ۵۰۰ تصویری که محققان آزمایش کرده اند، این الگو به طور تصادفی سه مورد از آن‌ها را ایجاد کرده است.

در ژانویه ۲۰۲۳، سه هنرمند از پلتفرم‌های تولید تصویر مبتنی بر هوش مصنوعی به دلیل استفاده از تصاویر آنلاین خود برای آموزش مدل هایشان بدون رعایت حق چاپ شکایت کردند.

یک شبکه عصبی در واقع می‌تواند سبک یک هنرمند را کپی کند و در نتیجه او را از درآمد محروم کند. این مقاله تاکید دارد که در برخی موارد، الگوریتم‌ها می‌توانند به دلایل مختلف دست به سرقت علمی واقعی بزنند و نقاشی‌ها، عکس‌ها و تصاویر دیگری تولید کنند که تقریباً مشابه کار افراد واقعی است؛ بنابراین محققان توصیه‌هایی را برای تقویت خصوصی سازی مجموعه آموزشی اصلی ارائه کرده اند:

۱- حذف تکرار در گروه‌های آموزشی.
۲- پردازش مجدد تصاویر آموزشی، به عنوان مثال با اضافه کردن نویز یا تغییر روشنایی. این باعث می‌شود احتمال نشت داده‌ها کمتر شود.
۳- تست الگوریتم با استفاده از تصاویر آموزشی ویژه و سپس بررسی عدم بازتولید ناخواسته آن با دقت.

منبع: باشگاه خبرنگاران جوان 

منبع: ايتنا

کلیدواژه: داده های آموزشی شبکه های عصبی هوش مصنوعی پلتفرم ها شبکه عصبی یک تصویر داده ها مدل ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.itna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۰۶۲۱۶۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند

ایتنا - مطالعه‌ای جدید می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی می‌تواند گرایش سیاسی افراد را از روی چهره‌های بدون حالت و بی‌احساس پیش‌بینی کند، محققان هشدار داد‌‌ند که فناوری‌های تشخیص چهره از آنچه قبلا به نظر می‌رسید، «تهدیدآمیزتر» شده‌‌ و برای حریم خصوصی چالش جدی به وجود آورده‌اند.  

مطالعه‌ای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.

به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکت‌کننده قبل از آنکه هوش مصنوعی آنها را چهره‌نگاری (استخراج اطلاعات مخصوص و منحصربه‌فرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامه‌‌ای درباره گرایش سیاسی خود پر کردند. سپس داده‌های چهره‌نگاری را با پاسخ‌ پرسشنامه‌های جهت‌گیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهره‌ها به دست آورده بود، جهت‌گیری سیاسی هر شخص را پیش‌بینی کند.

کوزینسکی می‌گوید: «فکر می‌کنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصی‌شان را برای دیگران فاش می‌کنند.»

او افزود: «ما می‌دانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما می‌توانستید به حساب کاربری فیس‌بوک افراد وارد شوید و به عنوان مثال گرایش‌های سیاسی، آنچه را که پسند می‌کنند (لایک می‌زنند) و صفحاتی را که دنبال کرده‌اند، ببینید. اما فیس‌بوک سال‌ها پیش آن را بست زیرا برای سیاست‌گذاران، فیس‌بوک و روزنامه‌نگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»

کوسینسکی افزود: «در حال حاضر نیز هر کس می‌تواند به فیس‌بوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچ‌وقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان می‌دهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهت‌گیری سیاسی آن‌ها باشد.»

محققان می‌گویند که تصاویر افراد شرکت‌کننده در این پژوهش را در شرایطی بسیار مشخص و کنترل‌شده جمع‌آوری کردند. به این ترتیب که این افراد همگی تی‌شرت‌های مشکی‌ پوشیده و زیور‌آلاتشان را در آورده‌ بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهره‌ها را از طریق الگوریتم چهره وی‌جی‌جی فیس۲ (VGGFace2) بررسی کردند.

محققان هشدار می‌دهند که فناوری‌های نظارت بیومتریکی، به ویژه فناوری‌های تشخیص چهره، تهدیدی جدی‌تر از گذشته برای حریم شخصی افرادند. پژوهش‌های پیش‌تر نیز نشان داده بودند که تصاویر طبیعی چهره می‌تواند اطلاعات مهمی را درباره جهت‌گیری سیاسی و ویژگی‌های شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیش‌بینی‌ها به دلیل نحوه ارائه شخص و ویژگی‌های ثابت چهره (خنثی) فعال شده‌اند یا هر دو این عوامل. محققان می‌گویند، نتایج ما نشان می‌دهند که ویژگی‌های ثابت چهره در انتقال این سیگنال‌ها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاه‌های نظارتی می‌رسد.

به گفته کوزینسکی، این الگوریتم‌ها را می‌توان بسیار سریع و ارزان برای میلیون‌ها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوری‌هایی است که در گوشی‌ها وجود دارد و به طور گسترده در همه‌جا استفاده می‌شود. 

دیگر خبرها

  • ناکامی متا در مقابله با اطلاعات نادرست پیش از انتخابات
  • تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط
  • آنچه که باید در مورد ویژگی‌های جدید واتس‌اپ بدانید
  • نقض قوانین از طریق دوستیابی مجازی با هوش مصنوعی
  • توسعه حمل و نقل بر پایه هوش مصنوعی و اینترنت اشیا در کارخانه نوآوری آزادی
  • ابلاغ دستور العمل حمل و عرضه دارو از طریق (سکو) پلتفرم‌ها و کسب و کار‌های اینترنتی
  • دستور العمل حمل و عرضه دارو از طریق (سکو) پلتفرم‌ها و کسب و کار‌های اینترنتی ابلاغ شد
  • امکان ایفای تعهدات صادراتی، از طریق بانک سامان
  • هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند
  • محل دفن افلاطون کشف شد | رمزگشایی طومارهای باستانی از طریق هوش موصنوعی