چگونه متن تولید شده توسط هوش مصنوعی اینترنت را مسموم می کند

امسال سالی عجیب برای هوش مصنوعی بوده است. اگر زمان زیادی را به صورت آنلاین سپری کرده‌اید، احتمالاً با تصاویر تولید شده توسط سیستم‌های هوش مصنوعی مانند DALL-E 2 یا Stable Diffusion یا جوک‌ها، مقاله‌ها یا سایر متن‌های نوشته شده توسط ChatGPT، جدیدترین تجسم از مدل بزرگ زبان OpenAI، GPT برخورد کرده‌اید. -3.

گاهی اوقات واضح است که یک تصویر یا یک قطعه متن توسط هوش مصنوعی ایجاد شده باشد. اما به طور فزاینده ای، خروجی این مدل ها می تواند به راحتی ما را فریب دهد که فکر کنیم توسط یک انسان ساخته شده است. و به‌ویژه مدل‌های زبان بزرگ، مزخرفات مطمئنی هستند: آنها متنی درست می‌کنند، اما در واقع ممکن است پر از دروغ باشد.

در حالی که اهمیتی ندارد که فقط کمی سرگرم کننده باشد، اما اگر از مدل های هوش مصنوعی برای ارائه توصیه های بهداشتی بدون فیلتر یا ارائه سایر اشکال اطلاعات مهم استفاده شود، می تواند عواقب جدی داشته باشد. سیستم‌های هوش مصنوعی همچنین می‌توانند تولید مجموعه‌ای از اطلاعات نادرست، سوء استفاده و هرزنامه را به طرز احمقانه‌ای آسان کنند و اطلاعات مصرف‌شده و حتی حس واقعیت ما را تحریف کنند. برای مثال، می تواند به ویژه در مورد انتخابات نگران کننده باشد.

تکثیر این مدل‌های زبان بزرگ که به راحتی در دسترس هستند، یک سوال مهم را ایجاد می‌کند: چگونه می‌توانیم بفهمیم که آنچه را که آنلاین می‌خوانیم توسط یک انسان نوشته شده است یا یک ماشین؟ من به تازگی داستانی را منتشر کرده ام که به ابزارهایی که در حال حاضر برای شناسایی متن تولید شده توسط هوش مصنوعی داریم، می پردازد. هشدار اسپویلر: کیت ابزار تشخیص امروزی به طرز غم انگیزی در برابر ChatGPT ناکافی است.

اما پیامدهای طولانی مدت جدی تری وجود دارد. ممکن است در زمان واقعی شاهد تولد یک گلوله برفی از مزخرفات باشیم.

مدل‌های زبان بزرگ بر روی مجموعه‌های داده‌ای آموزش داده می‌شوند که با خراش دادن متن در اینترنت ساخته می‌شوند، از جمله همه چیزهای سمی، احمقانه، نادرست و مخربی که انسان‌ها آنلاین نوشته‌اند. مدل‌های تمام‌شده هوش مصنوعی این دروغ‌ها را به عنوان واقعیت بازمی‌گردانند و خروجی آن‌ها در همه جا به صورت آنلاین پخش می‌شود. شرکت‌های فناوری دوباره اینترنت را خراش می‌دهند، و متن‌های نوشته‌شده با هوش مصنوعی را جمع‌آوری می‌کنند که از آن برای آموزش مدل‌های بزرگ‌تر و قانع‌کننده‌تر استفاده می‌کنند، که انسان‌ها می‌توانند از آن‌ها برای تولید مزخرفات بیشتر استفاده کنند، قبل از اینکه بارها و بارها خراشیده شوند.

این مشکل – هوش مصنوعی از خودش تغذیه می‌کند و خروجی‌های آلوده‌تر تولید می‌کند – به تصاویر هم کشیده می‌شود. مایک کوک، محقق هوش مصنوعی در کینگز کالج لندن، در مقاله جدید خود در مورد آینده مدل های هوش مصنوعی مولد به همکارم ویل داگلاس هیون گفت: «اینترنت اکنون برای همیشه با تصاویر ساخته شده توسط هوش مصنوعی آلوده شده است.

تصاویری که ما در سال 2022 ساختیم بخشی از هر مدلی است که از این به بعد ساخته شود.


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم