27 апреля, 2024

SolusNews.com

Последние новости

Генеративный ИИ сеет семена скептицизма в серьезной науке

Генеративный ИИ сеет семена скептицизма в серьезной науке

Писатель — научный обозреватель

Большие языковые модели, такие как ChatGPT, выступают за разумность. Чат-боты, многие из которых полагаются на так называемый генеративный искусственный интеллект, обучены отвечать на вопросы пользователей, собирая соответствующую информацию в Интернете и компилируя связные ответы, создавая убедительные студенческие эссе, авторитетные юридические документы и правдоподобные новости.

Но поскольку общедоступные данные содержат дезинформацию и дезинформацию, некоторые сгенерированные машиной тексты могут быть неточными или неточными. Это привело к борьбе за разработку инструментов, позволяющих определить, был ли текст написан человеком или машиной. Наука также изо всех сил пытается приспособиться к этой новой эре, с оживленными спорами о том, следует ли разрешить чат-ботам писать научные статьи или даже создавать новые гипотезы.

Важность различия между искусственным интеллектом и человеческим интеллектом возрастает день ото дня. В этом месяце аналитики UBS сообщили, что ChatGPT является самым быстрорастущим веб-приложением в истории, привлекая в январе 100 миллионов активных пользователей в месяц. Некоторые секторы решили, что нет смысла закрывать статичную дверь: в понедельник Международный бакалавриат заявил, что ученикам будет разрешено использовать ChatGPT для написания эссе при условии, что на них будут даны ссылки.

Справедливости ради следует отметить, что создатель технологии прямо говорит о ее ограничениях. Генеральный директор OpenAI Сэм Альтман предупредил в декабре, что ChatGPT «достаточно хорош в некоторых отношениях, чтобы создать обманчивое впечатление величия… Нам предстоит проделать большую работу над надежностью и надежностью». Компания разрабатывает зашифрованный водяной знак для вывода, который представляет собой секретную машиночитаемую последовательность знаков препинания, правописания и порядка слов; И он полирует «учебник», чтобы узнать разницу между синтетическим и созданным человеком текстом, используя примеры обоих для обучения.

READ  Новый взгляд на конфиденциальность данных | Новости Массачусетского технологического института

Эрик Митчелл, аспирант Стэнфордского университета, считал, что классификатору потребуется много обучающих данных. Вместе с коллегами он приехал Обнаружение GPT, что является «огненным» подходом к обнаружению различий, что означает, что метод не требует предварительного обучения. Вместо этого этот метод возвращает чат-бота к самому себе, чтобы он обнаружил свой собственный вывод.

Это работает следующим образом: DetectGPT спрашивает чат-бота, насколько ему нравится образец текста, с сокращением «нравится» для того, насколько образец похож на его творения. Затем DetectGPT идет еще дальше — «запутывает» текст, немного меняя формулировку. Предполагается, что чат-бот более разнообразен по «лайкам» модифицированного текста, сгенерированного человеком, чем текст, сгенерированный машиной. В первых тестах исследователи утверждали, что метод правильно различает авторство человека и машины в 95% случаев.

Есть оговорки: результаты еще не рецензировались; Этот метод, хотя и лучше, чем случайное угадывание, не работал надежно во всех генеративных моделях ИИ. DetectGPT можно обмануть, заставив человека вносить изменения в синтетический текст.

Что все это значит для науки? Научная публикация Это источник жизненной силы исследований, вносящих идеи, гипотезы, аргументы и доказательства в глобальный научный канон. Некоторые быстро присоединились к ChatGPT в качестве научного сотрудника, а в нескольких спорных статьях ИИ был указан в качестве соавтора.

Meta даже запустила генератор научного текста под названием Galactica. Его сняли через три дня. Среди воя, который он произвел, была вымышленная история космических медведей.

Профессор Майкл Блэк из Института интеллектуальных систем Макса Планка в Тюбингене в то время написал в Твиттере, что его «обеспокоили» ответы Galactica на многочисленные вопросы о его области исследований, в том числе приписывание поддельных статей настоящим исследователям. «в любом случае, [Galactica] Это было неправильно или предвзято, но казалось правильным и надежным. Я думаю, это опасно».

READ  Австралийские студенты тестируют космические овощи в рамках проекта НАСА

Опасность заключается в том, что правдоподобный текст скатывается в подлинные научные доводы, заполняя литературу фальшивыми цитатами и навсегда искажая канон. Наука теперь запрещает явное создание текста; Природа разрешает использование, если оно обнародовано, но запрещает упоминание в качестве соавтора.

С другой стороны, большинство людей не обращаются к передовым журналам, чтобы направлять свое научное мышление. Если мошенники так настроены, эти чат-боты могут по требованию развязать поток лженауки, наполненный цитатами о том, почему вакцинация не сработала или почему глобальное потепление — это розыгрыш. Этот вводящий в заблуждение материал, размещенный в Интернете, может быть проглочен будущим генеративным ИИ для создания новых итераций лжи, загрязняющей общественный дискурс.

Скептики должны заламывать руки.