ChatGPT چگونه بر حریم خصوصی کاربران تاثیر میگذارد
ChatGPT و GDPR: متعادل کردن نوآوری هوش مصنوعی با حفاظت از دادهها
توانایی ChatGPT OpenAI برای بازسازی متنی شبیه متنی که انسان میتواند بنویسد، نگرانیهایی را در مورد ChatGPT و تاثیر آن بر حریم خصوصی کاربران این ویژگی با مقررات حفاظت از دادهها ایجاد کرد.این در حالی است که سایر کشورهای اروپایی از ایتالیا پیروی میکنند، این مقاله چگونگی مطابقت ChatGPT با GDPR و تأثیر آن بر آینده هوش مصنوعی مولد را بررسی میکند.
ChatGPT OpenAI به دلیل توانایی آن در تولید متنی شبیه به انسان هنگام پاسخ به درخواستها، توجه گستردهای را به خود جلب کرده است. با این حال، پس از ماهها مسرت و رضایت برای OpenAI و ChatGPT، این شرکت اکنون با اقدامات قانونی از سوی چندین مقام اروپایی حفاظت از دادهها مواجه است که معتقدند اطلاعات شخصی افراد را بدون رضایت آنها حذف کرده است. سازمان حفاظت از دادههای ایتالیا به طور موقت استفاده از ChatGPT را به عنوان یک اقدام پیشگیرانه مسدود کرده است، در حالی که تنظیم کنندههای داده فرانسوی، آلمانی، ایرلندی و کانادایی نیز در حال بررسی نحوه جمع آوری و استفاده OpenAI از دادهها هستند.
بعلاوه، هیئت حفاظت از دادههای اروپا یک کارگروه در سراسر اتحادیه اروپا را برای هماهنگی تحقیقات و اجرای مربوط به ChatGPT تشکیل داد که منجر به بحث داغ در مورد استفاده از مدل های زبان هوش مصنوعی و مطرح کردن مسائل مهم اخلاقی و مقرراتی، به ویژه مواردی که شامل حفاظت از داده ها و حریم خصوصی.
نگرانیهای مربوط به رعایت GDPR: چگونه هوش مصنوعی مولد میتواند با قوانین حفاظت از دادهها مانند GDPR مطابقت داشته باشد؟
به گفته مقامات ایتالیایی، افشای OpenAI و ChatGPT و تاثیر آن بر حریم خصوصی کاربران در مورد جمع آوری دادههای کاربر در مرحله پس از آموزش سیستم، به ویژه گزارشهای چت تعاملات با ChatGPT، کاملاً شفاف نیست. این نگرانیها را در مورد انطباق با مقررات عمومی حفاظت از دادهها (GDPR) ایجاد میکند که هدف آن حفاظت از حریم خصوصی و دادههای شخصی شهروندان اتحادیه اروپا است، مانند اصول شفافیت، محدودیت هدف، به حداقل رساندن دادهها و حقوق موضوع دادهها.
ایتالیا به عنوان شرط لغو ممنوعیت اعمال شده بر ChatGPT، اقدامات OpenAI را مشخص کرده است. این مراحل شامل کسب رضایت کاربر برای جمع آوری دادهها یا نشان دادن علاقه مشروع به جمع آوری دادهها است، که زمانی ایجاد میشود که یک شرکت دادههای شخصی را در یک رابطه مشتری پردازش میکند، برای اهداف بازاریابی مستقیم، برای جلوگیری از فعالیتهای متقلبانه، یا حفاظت از شبکه و اطلاعات. امنیت سیستمهای IT آن علاوه بر این، این شرکت باید به کاربران توضیح دهد که چگونه ChatGPT از دادههای آنها استفاده میکند و به آنها این امکان را میدهد که دادههایشان را پاک کنند یا اجازه استفاده از برنامه را رد کنند.
اقدامات به سوی انطباق با GDPR: سیاست حفظ حریم خصوصی بهروز شده OpenAI و ویژگی انصراف
OpenAI خط مشی حفظ حریم خصوصی خود را به روز کرده و شیوههای خود را برای جمع آوری، استفاده و حفاظت از دادههای شخصی تشریح کرده است. در یک مقاله فنی GPT-4، این شرکت اعلام کرد که اطلاعات شخصی در دسترس عموم ممکن است در دادههای آموزشی گنجانده شود و OpenAI تلاش میکند تا از حریم خصوصی افراد با ترکیب مدلهایی برای حذف دادههای شخصی از دادههای آموزشی «در صورت امکان» اطمینان حاصل کند.
علاوه بر این، OpenAI اکنون به یک حالت ناشناس در ChatGPT اجازه میدهد تا تلاشهای مربوط به انطباق با GDPR را افزایش دهد، از حریم خصوصی کاربران محافظت کند و از ذخیره اطلاعات شخصی جلوگیری کند و به کاربران کنترل بیشتری بر استفاده از دادههایشان بدهد.
انتخاب این شرکت برای ارائه ویژگی انصراف در بحبوحه فشار فزاینده تنظیم کنندههای حفاظت از دادههای اروپایی در مورد جمعآوری دادهها و شیوههای استفاده شرکت صورت میگیرد. ایتالیا خواستار انطباق OpenAI با GDPR تا 30 آوریل شده است. در پاسخ، OpenAI یک فرم انصراف کاربر و توانایی اعتراض به داده های شخصی استفاده شده در ChatGPT را اجرا کرد و به ایتالیا اجازه داد تا دسترسی به پلتفرم را در کشور بازگرداند. این حرکت گامی مثبت در جهت توانمندسازی افراد برای مدیریت دادههایشان است.
چالشها در حذف اطلاعات نادرست یا ناخواسته از سیستمهای هوش مصنوعی همچنان وجود دارد. با این حال، موضوع حذف اطلاعات نادرست یا ناخواسته از سیستمهای هوش مصنوعی مطابق با GDPR چالش برانگیزتر است. اگرچه به برخی از شرکتها دستور داده شده است که الگوریتمهای توسعه یافته از دادههای غیرمجاز را حذف کنند، حذف تمام دادههای شخصی مورد استفاده برای آموزش مدلها همچنان چالش برانگیز است.
مشکل به این دلیل به وجود میآید که مدلهای یادگیری ماشین اغلب دارای معماری جعبه سیاه پیچیدهای هستند که درک نحوه استفاده از یک نقطه داده یا مجموعه ای از نقاط داده را دشوار میکند. در نتیجه، مدلها اغلب باید با مجموعه دادههای کوچکتری بازآموزی شوند تا دادههای خاص حذف شوند، که برای شرکتها زمانبر و پرهزینه است.
کارشناسان حفاظت از دادهها استدلال میکنند که OpenAI میتوانست از همان ابتدا با ایجاد ثبت سوابق قوی دادهها، از مشکلات زیادی پیشگیری کند. درعوض، در صنعت هوش مصنوعی، ساخت مجموعههای دادهای برای مدلهای هوش مصنوعی با خراش دادن بیرویه وب و سپس برون سپاری کار حذف دادههای تکراری یا نامربوط، فیلتر کردن چیزهای ناخواسته، و رفع اشتباهات تایپی رایج است. در توسعه هوش مصنوعی، پارادایم غالب این است که دادههای آموزشی بیشتر و بهتر است.
مدل GPT-3 OpenAI بر روی 570 گیگابایت داده آموزش داده شد. این روشها و حجم عظیم مجموعه دادهها به این معناست که شرکتهای فناوری تمایل دارند درک کاملی از آنچه برای آموزش مدلهایشان انجام شده است، نداشته باشند.
در حالی که بسیاری از GDPR به دلیل هیجانانگیز نبودن و ممانعت از نوآوری انتقاد میکنند، کارشناسان استدلال میکنند که این قانون به عنوان الگویی برای شرکتها برای بهبود شیوههای خود در زمانی که مجبور به رعایت آن هستند، عمل میکند. در حال حاضر این تنها وسیله ای است که افراد برای اعمال هر گونه اقتدار بر زندگی و دادههای دیجیتال خود در دنیایی که به تدریج در حال خودکار شدن است، در دسترس هستند.
این امر نیاز به گفتگو و همکاری مداوم بین توسعه دهندگان، کاربران و تنظیم کنندههای هوش مصنوعی را نشان میدهد تا اطمینان حاصل شود که این فناوری به شیوهای مسئولانه و اخلاقی استفاده میشود. به نظر میرسد که ChatGPT با ناظران حریم خصوصی اروپا با مشکل مواجه است.
به نظر میرسد که ممنوعیت ایتالیایی آغاز بوده است، زیرا OpenAI هنوز یک دفتر مرکزی محلی در یکی از کشورهای اتحادیه اروپا ایجاد نکرده است و آن را در معرض تحقیقات بیشتر و ممنوعیتهای مقامات حفاظت از دادههای هر کشور عضو قرار میدهد.
با این حال، در حالی که تنظیم کنندههای اتحادیه اروپا هنوز در حال بررسی پیامدهای نظارتی و ChatGPT و تاثیر آن بر حریم خصوصی کاربران برای هوش مصنوعی مولد هستند، شرکتهایی مانند OpenAI همچنان از فقدان مقررات در این زمینه سود میبرند و کسب درآمد میکنند.
با تصویب قانون هوش مصنوعی اتحادیه اروپا به زودی، اتحادیه اروپا در نظر دارد به خلاءهای GDPR در هنگام تنظیم هوش مصنوعی رسیدگی کند و الهام بخش ابتکارات مشابهی باشد که در کشورهای دیگر پیشنهاد میشود. به نظر میرسد تأثیر مدلهای هوش مصنوعی مولد بر حریم خصوصی احتمالاً برای سالهای آینده در دستور کار قانون گذاران خواهد بود.