021-91003839
تهران، سید خندان، خ برازنده، پلاک 56، واحد 112
تاریخ ایجاد : 1402/03/24
265 بازدید

آیا ChatGPT حریم خصوصی کاربران را حفظ می‌کند

آیا ChatGPT حریم خصوصی کاربران را حفظ می‌کند

 ChatGPT چگونه بر حریم خصوصی کاربران تاثیر می‌گذارد

ChatGPT و GDPR: متعادل کردن نوآوری هوش مصنوعی با حفاظت از داده‌ها

توانایی ChatGPT OpenAI برای بازسازی متنی شبیه متنی که انسان می‌تواند بنویسد، نگرانی‌هایی را در مورد ChatGPT و تاثیر آن بر حریم خصوصی کاربران این ویژگی با مقررات حفاظت از داده‌ها ایجاد کرد.این در حالی است که سایر کشورهای اروپایی از ایتالیا پیروی می‌کنند، این مقاله چگونگی مطابقت ChatGPT با GDPR و تأثیر آن بر آینده هوش مصنوعی مولد را بررسی می‌کند.

ChatGPT OpenAI به دلیل توانایی آن در تولید متنی شبیه به انسان هنگام پاسخ به درخواست‌ها، توجه گسترده‌ای را به خود جلب کرده است. با این حال، پس از ماه‌ها مسرت و رضایت برای OpenAI و ChatGPT، این شرکت اکنون با اقدامات قانونی از سوی چندین مقام اروپایی حفاظت از داده‌ها مواجه است که معتقدند اطلاعات شخصی افراد را بدون رضایت آنها حذف کرده است. سازمان حفاظت از داده‌های ایتالیا به طور موقت استفاده از ChatGPT را به عنوان یک اقدام پیشگیرانه مسدود کرده است، در حالی که تنظیم کننده‌های داده فرانسوی، آلمانی، ایرلندی و کانادایی نیز در حال بررسی نحوه جمع آوری و استفاده OpenAI از داده‌ها هستند.

بعلاوه، هیئت حفاظت از داده‌های اروپا یک کارگروه در سراسر اتحادیه اروپا را برای هماهنگی تحقیقات و اجرای مربوط به ChatGPT تشکیل داد که منجر به بحث داغ در مورد استفاده از مدل های زبان هوش مصنوعی و مطرح کردن مسائل مهم اخلاقی و مقرراتی، به ویژه مواردی که شامل حفاظت از داده ها و حریم خصوصی.

نگرانی‌های مربوط به رعایت GDPR: چگونه هوش مصنوعی مولد می‌تواند با قوانین حفاظت از داده‌ها مانند GDPR مطابقت داشته باشد؟

به گفته مقامات ایتالیایی، افشای OpenAI و ChatGPT و تاثیر آن بر حریم خصوصی کاربران در مورد جمع‌ آوری داده‌های کاربر در مرحله پس از آموزش سیستم، به‌ ویژه گزارش‌های چت تعاملات با ChatGPT، کاملاً شفاف نیست. این نگرانی‌ها را در مورد انطباق با مقررات عمومی حفاظت از داده‌ها (GDPR) ایجاد می‌کند که هدف آن حفاظت از حریم خصوصی و داده‌های شخصی شهروندان اتحادیه اروپا است، مانند اصول شفافیت، محدودیت هدف، به حداقل رساندن داده‌ها و حقوق موضوع داده‌ها.

ایتالیا به عنوان شرط لغو ممنوعیت اعمال شده بر ChatGPT، اقدامات OpenAI را مشخص کرده است. این مراحل شامل کسب رضایت کاربر برای جمع‌ آوری داده‌ها یا نشان دادن علاقه مشروع به جمع‌ آوری داده‌ها است، که زمانی ایجاد می‌شود که یک شرکت داده‌های شخصی را در یک رابطه مشتری پردازش می‌کند، برای اهداف بازاریابی مستقیم، برای جلوگیری از فعالیت‌های متقلبانه، یا حفاظت از شبکه و اطلاعات. امنیت سیستم‌های IT آن علاوه بر این، این شرکت باید به کاربران توضیح دهد که چگونه ChatGPT از داده‌های آن‌ها استفاده می‌کند و به آن‌ها این امکان را می‌دهد که داده‌هایشان را پاک کنند یا اجازه استفاده از برنامه را رد کنند.

آیا ChatGPT حریم خصوصی کاربران را حفظ می‌کند

اقدامات به سوی انطباق با GDPR: سیاست حفظ حریم خصوصی به‌روز شده OpenAI و ویژگی انصراف

OpenAI  خط مشی حفظ حریم خصوصی خود را به روز کرده و شیوه‌های خود را برای جمع آوری، استفاده و حفاظت از داده‌های شخصی تشریح کرده است. در یک مقاله فنی  GPT-4، این شرکت اعلام کرد که اطلاعات شخصی در دسترس عموم ممکن است در داده‌های آموزشی گنجانده شود و OpenAI تلاش می‌کند تا از حریم خصوصی افراد با ترکیب مدل‌هایی برای حذف داده‌های شخصی از داده‌های آموزشی «در صورت امکان» اطمینان حاصل کند.

علاوه بر این، OpenAI  اکنون به یک حالت ناشناس در ChatGPT اجازه می‌دهد تا تلاش‌های مربوط به انطباق با GDPR را افزایش دهد، از حریم خصوصی کاربران محافظت کند و از ذخیره اطلاعات شخصی جلوگیری کند و به کاربران کنترل بیشتری بر استفاده از داده‌هایشان بدهد.

انتخاب این شرکت برای ارائه ویژگی انصراف در بحبوحه فشار فزاینده تنظیم ‌کننده‌های حفاظت از داده‌های اروپایی در مورد جمع‌آوری داده‌ها و شیوه‌های استفاده شرکت صورت می‌گیرد. ایتالیا خواستار انطباق OpenAI با GDPR تا 30 آوریل شده است. در پاسخ، OpenAI یک فرم انصراف کاربر و توانایی اعتراض به داده های شخصی استفاده شده در ChatGPT را اجرا کرد و به ایتالیا اجازه داد تا دسترسی به پلتفرم را در کشور بازگرداند. این حرکت گامی مثبت در جهت توانمندسازی افراد برای مدیریت داده‌هایشان است.

چالش‌ها در حذف اطلاعات نادرست یا ناخواسته از سیستم‌های هوش مصنوعی همچنان وجود دارد. با این حال، موضوع حذف اطلاعات نادرست یا ناخواسته از سیستم‌های هوش مصنوعی مطابق با GDPR چالش برانگیزتر است. اگرچه به برخی از شرکت‌ها دستور داده شده است که الگوریتم‌های توسعه یافته از داده‌های غیرمجاز را حذف کنند، حذف تمام داده‌های شخصی مورد استفاده برای آموزش مدل‌ها همچنان چالش برانگیز است.

مشکل به این دلیل به وجود می‌آید که مدل‌های یادگیری ماشین اغلب دارای معماری جعبه سیاه پیچیده‌ای هستند که درک نحوه استفاده از یک نقطه داده یا مجموعه ای از نقاط داده را دشوار می‌کند. در نتیجه، مدل‌ها اغلب باید با مجموعه داده‌های کوچک‌تری بازآموزی شوند تا داده‌های خاص حذف شوند، که برای شرکت‌ها زمان‌بر و پرهزینه است.

کارشناسان حفاظت از داده‌ها استدلال می‌کنند که OpenAI می‌توانست از همان ابتدا با ایجاد ثبت سوابق قوی داده‌ها، از مشکلات زیادی پیشگیری کند. درعوض، در صنعت هوش مصنوعی، ساخت مجموعه‌های داده‌ای برای مدل‌های هوش مصنوعی با خراش دادن بی‌رویه وب و سپس برون ‌سپاری کار حذف داده‌های تکراری یا نامربوط، فیلتر کردن چیزهای ناخواسته، و رفع اشتباهات تایپی رایج است. در توسعه هوش مصنوعی، پارادایم غالب این است که داده‌های آموزشی بیشتر و بهتر است.

مدل GPT-3 OpenAI بر روی 570 گیگابایت داده آموزش داده شد. این روش‌ها و حجم عظیم مجموعه داده‌ها به این معناست که شرکت‌های فناوری تمایل دارند درک کاملی از آنچه برای آموزش مدل‌هایشان انجام شده است، نداشته باشند.

در حالی که بسیاری از GDPR به دلیل هیجان‌انگیز نبودن و ممانعت از نوآوری انتقاد می‌کنند، کارشناسان استدلال می‌کنند که این قانون به عنوان الگویی برای شرکت‌ها برای بهبود شیوه‌های خود در زمانی که مجبور به رعایت آن هستند، عمل می‌کند. در حال حاضر این تنها وسیله ای است که افراد برای اعمال هر گونه اقتدار بر زندگی و داده‌های دیجیتال خود در دنیایی که به تدریج در حال خودکار شدن است، در دسترس هستند.

این امر نیاز به گفتگو و همکاری مداوم بین توسعه ‌دهندگان، کاربران و تنظیم ‌کننده‌های هوش مصنوعی را نشان می‌دهد تا اطمینان حاصل شود که این فناوری به شیوه‌ای مسئولانه و اخلاقی استفاده می‌شود. به نظر می‌رسد که ChatGPT با ناظران حریم خصوصی اروپا با مشکل مواجه است.

به نظر می‌رسد که ممنوعیت ایتالیایی آغاز بوده است، زیرا OpenAI هنوز یک دفتر مرکزی محلی در یکی از کشورهای اتحادیه اروپا ایجاد نکرده است و آن را در معرض تحقیقات بیشتر و ممنوعیت‌های مقامات حفاظت از داده‌های هر کشور عضو قرار می‌دهد.

با این حال، در حالی که تنظیم ‌کننده‌های اتحادیه اروپا هنوز در حال بررسی پیامدهای نظارتی و ChatGPT و تاثیر آن بر حریم خصوصی کاربران برای هوش مصنوعی مولد هستند، شرکت‌هایی مانند OpenAI همچنان از فقدان مقررات در این زمینه سود می‌برند و کسب درآمد می‌کنند.

با تصویب قانون هوش مصنوعی اتحادیه اروپا به زودی، اتحادیه اروپا در نظر دارد به خلاءهای GDPR در هنگام تنظیم هوش مصنوعی رسیدگی کند و الهام بخش ابتکارات مشابهی باشد که در کشورهای دیگر پیشنهاد می‌شود. به نظر می‌رسد تأثیر مدل‌های هوش مصنوعی مولد بر حریم خصوصی احتمالاً برای سال‌های آینده در دستور کار قانون‌ گذاران خواهد بود.