امسال سالی عجیب برای هوش مصنوعی بوده است. اگر زمان زیادی را به صورت آنلاین سپری کردهاید، احتمالاً با تصاویر تولید شده توسط سیستمهای هوش مصنوعی مانند DALL-E 2 یا Stable Diffusion یا جوکها، مقالهها یا سایر متنهای نوشته شده توسط ChatGPT، جدیدترین تجسم از مدل بزرگ زبان OpenAI، GPT برخورد کردهاید. -3.
گاهی اوقات واضح است که یک تصویر یا یک قطعه متن توسط هوش مصنوعی ایجاد شده باشد. اما به طور فزاینده ای، خروجی این مدل ها می تواند به راحتی ما را فریب دهد که فکر کنیم توسط یک انسان ساخته شده است. و بهویژه مدلهای زبان بزرگ، مزخرفات مطمئنی هستند: آنها متنی درست میکنند، اما در واقع ممکن است پر از دروغ باشد.
در حالی که اهمیتی ندارد که فقط کمی سرگرم کننده باشد، اما اگر از مدل های هوش مصنوعی برای ارائه توصیه های بهداشتی بدون فیلتر یا ارائه سایر اشکال اطلاعات مهم استفاده شود، می تواند عواقب جدی داشته باشد. سیستمهای هوش مصنوعی همچنین میتوانند تولید مجموعهای از اطلاعات نادرست، سوء استفاده و هرزنامه را به طرز احمقانهای آسان کنند و اطلاعات مصرفشده و حتی حس واقعیت ما را تحریف کنند. برای مثال، می تواند به ویژه در مورد انتخابات نگران کننده باشد.
تکثیر این مدلهای زبان بزرگ که به راحتی در دسترس هستند، یک سوال مهم را ایجاد میکند: چگونه میتوانیم بفهمیم که آنچه را که آنلاین میخوانیم توسط یک انسان نوشته شده است یا یک ماشین؟ من به تازگی داستانی را منتشر کرده ام که به ابزارهایی که در حال حاضر برای شناسایی متن تولید شده توسط هوش مصنوعی داریم، می پردازد. هشدار اسپویلر: کیت ابزار تشخیص امروزی به طرز غم انگیزی در برابر ChatGPT ناکافی است.
اما پیامدهای طولانی مدت جدی تری وجود دارد. ممکن است در زمان واقعی شاهد تولد یک گلوله برفی از مزخرفات باشیم.
مدلهای زبان بزرگ بر روی مجموعههای دادهای آموزش داده میشوند که با خراش دادن متن در اینترنت ساخته میشوند، از جمله همه چیزهای سمی، احمقانه، نادرست و مخربی که انسانها آنلاین نوشتهاند. مدلهای تمامشده هوش مصنوعی این دروغها را به عنوان واقعیت بازمیگردانند و خروجی آنها در همه جا به صورت آنلاین پخش میشود. شرکتهای فناوری دوباره اینترنت را خراش میدهند، و متنهای نوشتهشده با هوش مصنوعی را جمعآوری میکنند که از آن برای آموزش مدلهای بزرگتر و قانعکنندهتر استفاده میکنند، که انسانها میتوانند از آنها برای تولید مزخرفات بیشتر استفاده کنند، قبل از اینکه بارها و بارها خراشیده شوند.
این مشکل – هوش مصنوعی از خودش تغذیه میکند و خروجیهای آلودهتر تولید میکند – به تصاویر هم کشیده میشود. مایک کوک، محقق هوش مصنوعی در کینگز کالج لندن، در مقاله جدید خود در مورد آینده مدل های هوش مصنوعی مولد به همکارم ویل داگلاس هیون گفت: «اینترنت اکنون برای همیشه با تصاویر ساخته شده توسط هوش مصنوعی آلوده شده است.
تصاویری که ما در سال 2022 ساختیم بخشی از هر مدلی است که از این به بعد ساخته شود.