متا باز هم به دادگاه میرود
تاریخ انتشار: ۱۱ اسفند ۱۴۰۲ | کد خبر: ۳۹۸۶۰۳۶۶
ایتنا - متا پلتفرم با شکایت هشت گروه مصرف کننده اتحادیه اروپا روبرو شد که مدعی هستند این شرکت آمریکایی، در روند جمع آوری دادههای کاربران، مقررات حریم خصوصی این بلوک را نقض کرده است.
شکایت گروههای مصرفکننده در جمهوری چک، دانمارک، فرانسه، یونان، نروژ، اسلواکی، اسلوونی و اسپانیا به مقامات حفاظت از دادهها در کشورهایشان، به شکایات قبلی در خصوص انبوه دادههای کاربران متا اضافه میشود.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به گزارش ایتنا از ایسنا، این نهادهای مصرفکننده گفتند متا از قوانین حفاظت از دادههای عمومی در خصوص پردازش منصفانه، به حداقل رساندن دادهها و محدودیتهای هدف، تبعیت نمیکند و هیچ مبنای قانونی در جمعآوری و پردازش دادهها توسط این شرکت وجود ندارد.
اورسولا پاچل، معاون مدیر کل سازمان مصرفکنندگان اروپا، گفت: بر اساس قانون حفاظت از دادههای عمومی، مدلهای کسبوکار مبتنی بر پایش و رصد، انواع مشکلات را ایجاد میکنند و زمان آن رسیده است که مقامات حفاظت از دادهها از پردازش غیرمنصفانه دادهها توسط متا و نقض حقوق اساسی مردم از سوی این شرکت، جلوگیری کنند.
وی همچنین از اقدام اخیر متا برای راه اندازی سرویسهای اشتراک پولی بدون تبلیغ فیس بوک و اینستاگرام در اروپا انتقاد کرد. این شرکت اعلام کرده که هدف از راه اندازی این سرویسها، رعایت مقررات فناوری جدید اتحادیه اروپاست.
منتقدان می گویند این به معنای آن است که کاربران مجبور هستند برای حفظ حریم خصوصی خود، هزینه کنند. کاربرانی که به تبلیغات اهمیتی نمی دهند می توانند به استفاده رایگان از خدمات ادامه دهند.
بر اساس گزارش رویترز، متا اعلام کرد تغییرات اعمال شده برای سرویس اشتراکی، پاسخی به اقدامات نظارتی و احکام دادگاه است. یک سخنگوی متا گفت: اشتراک برای عدم نمایش تبلیغات، به جدیدترین تحولات نظارتی، راهنماییها و احکام مشترک رگولاتورهای برجسته اروپایی و دادگاهها در سالهای اخیر پاسخ می دهد. به خصوص، مطابق با دستور عالی ترین دادگاه اروپا است. دیوان دادگستری اتحادیه اروپا در ژوئیه، مدل اشتراک را به عنوان راهی برای کسب رضایت کاربران برای پردازش دادهها برای تبلیغات شخصی سازی شده، تائید کرد.
منبع: ايتنا
کلیدواژه: فیس بوک متا دادگاه شکایت حفاظت از داده ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.itna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۸۶۰۳۶۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
به گزارش دیجیاتو؛ دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارندبراساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.