Дивовижні технології та винаходи

Новини, аналітика, статті, фото та відео

«Через пару років штучний інтелект поховає нас під лавиною дезінформації»

«Через пару років штучний інтелект поховає нас під лавиною дезінформації»

Видання New York Times випробувало на людях новітні алгоритми текстової генерації. Вони стрімко поліпшуються: все важче відрізнити текст, написаний людиною, від складеного машиною. Максимум через пару років це буде досконала зброя масового ураження, інструментів протидії якому поки немає.

За останній час з'явилося два виняткових алгоритми, що синтезують правдоподібні тексти в різних жанрах. Один з них - GPT-2 - створили в OpenAI та відразу засекретили, настільки небезпечним здавалося потрапляння його «не в ті руки». Другий варіант представили дослідники з Інституту Пола Аллена в Сіетлі. І тут, навпаки, розробники мають намір розкрити найближчим часом всі деталі. Видання New York Times розібралося в прогресі технології та її небезпеки. Тепер журналісти впевнені, що через пару років інтернет накриє хвиля фальшивих повідомлень, в порівнянні з якою сьогоднішні зусилля будь-якої «фабрики тролів» з людьми здадуться дитячими пустощами.

Найцікавіша частина статті — приклади згенерованих GPT-2 та алгоритмом Інституту Аллена текстів. NYT починає з того, що нагадує про кампанію очорнення волонтерів, які працювали у Сирії, із загону «Білі каски». Тисячі однотипних повідомлень зв'язали зі спробами російських «тролів» вплинути на протистояння в Сирії та імідж Росії, яку «Білі каски» часто звинувачували в авіаударах, які спричинили загибель цивільного населення.

Люди просто копіювали тексти, і це викрило авторів. Однак штучний інтелект може генерувати тексти, які не відрізнити від справжніх і, до того ж унікальних, тисячами. Принаймні — у форматі твітів.

«Білі каски імовірно залучені у торгівлю органами, викрадення дітей та постановку подій в Сирії», «Білі каски таємно зняли страту чоловіка та його трирічної доньки в Алеппо, Сирія», одне з цих повідомлень написала людина, інше — створив алгоритм.

Далі NYT продовжує дослідження на більших формах — у форматі поста в соцмережі, який штучний інтелект розгортає з різних ввідних. Журналісти вибрали, кого треба засудити в замітці — республіканців або демократів — а також за що: засилля іммігрантів або зростання вартості охорони здоров'я. Результат вражає: наприклад, в одному з повідомлень навіть є «посилання» на підроблений твіт президента Дональда Трампа.

Втім, NYT зазначає, що на великій вибірці видно й недоліки штучного інтелекту: іноді в статтях немає логіки, а деякі результати зовсім не мають сенсу.

Проте, журналісти переконані: в найближчі роки моделі текстової генерації пройдуть той же шлях, що виконали змагальні генеративні нейромережі в створенні правдоподібних фото та відео. І згенеровані тексти рано чи пізно перестануть відрізняються від написаних людиною.

А значить, нас буквально накриє хвиля фейкових текстів, новин та думок, якщо не вжити серйозних зусиль, щоб захистити користувачів, які поки нічого не підозрюють, від нового виду зброї. У OpenAI вважали за необхідне закрити свій алгоритм. В Інституті Аллена, навпаки, переконані, що якщо алгоритм не викрити, підібрати ключі до розпізнавання фальшивих ШІ-новин буде неможливо.

Цієї ж думки дотримується і глава відділу, що досліджує фейки ШІ-команди Facebook Манохар Палурі: «Якщо у вас на руках генеративна модель, значить, є способи протистояти їй».

ШІ-генератори правдоподібних текстів та відео відкривають дорогу не тільки до появи небувалих обсягів дезінформації. Оптимісти вважають, що з розквітом штучного інтелекту з'явиться, наприклад, новий вид мистецтва — історії, розказані конкретній людині, які ніколи не повторюються.

На цьому поки все. Та не забувайте поділитися прочитаним зі своїми друзями!


Останні публікації

Підпишись на новинки