Твиты, написанные ИИ на основе GPT-3, оказались убедительнее постов реальных людей

Твиты, написанные ИИ на основе GPT-3, оказались убедительнее постов реальных людей

29.06.2023
Новости Искусственный интеллект

В недавнем исследовании, проведенном специалистами из Цюрихского университета, были изучены возможности моделей ИИ, особенно с акцентом на OpenAI GPT-3, чтобы определить их потенциальные риски и преимущества при создании и распространении (дез)информации.

Исследование, проведённое специалистами с докторской степенью Джованни Шпитале и Федерико Германи, а также Николой Биллер-Андорно, директором Института биомедицинской этики и истории медицины (IBME) Цюрихского университета, с участием 697 человек, стремилось оценить, могут ли люди различать дезинформацию и точную информацию, представленную в виде твитов.

Кроме того, исследователи стремились определить, могут ли участники определить, был ли твит написан настоящим пользователем Twitter* или сгенерирован GPT-3, усовершенствованной языковой моделью ИИ. Среди затронутых тем были изменение климата, безопасность вакцин, пандемия COVID-19, теория плоской Земли и гомеопатические методы лечения рака. Статья с работой учёных была подробно описана в Science Advances.

С одной стороны, GPT-3 продемонстрировал способность генерировать точную и – по сравнению с твитами реальных пользователей Twitter* – более удобочитаемую информацию.

Однако исследователи также обнаружили, что языковая модель ИИ обладает тревожным свойством создавать очень убедительную дезинформацию. К сожалению, участники исследования не смогли надёжно отличить твиты, созданные GPT-3, от твитов, написанных реальными пользователями Twitter*

«Наше исследование показывает способность ИИ как информировать, так и вводить в заблуждение, поднимая важные вопросы о будущем информационных экосистем», – заявил Федерико Германи.

Эти результаты показывают, что информационные кампании, созданные GPT-3 на основе хорошо структурированных подсказок и оценённые обученными людьми, окажутся более эффективными, например, в условиях кризиса в области общественного здравоохранения, который требует быстрой и чёткой коммуникации с общественностью.

Выводы также вызывают серьёзную озабоченность в отношении угрозы ИИ, увековечивающей дезинформацию, особенно в контексте быстрого и широкомасштабного распространения ложной информации и дезинформации во время кризиса или события в области общественного здравоохранения.

Исследование показывает, что системы на базе ИИ могут использоваться для проведения широкомасштабных кампаний по дезинформации потенциально на любую тему, ставя под угрозу не только общественное здравоохранение, но и целостность информационных экосистем, жизненно важных для функционирующих демократий.

Поскольку влияние ИИ на создание и оценку информации становится все более заметным, исследователи призывают политиков принять строгие, основанные на фактических данных и этически обоснованные правила для устранения потенциальных угроз, создаваемых этими прорывными технологиями, и обеспечить ответственное использование ИИ при формировании наших коллективных знаний и благополучия.