Является ли ChatGPT другом или врагом медицинского издательства?
Люси Хикс
08 июня 2023 года
Исследователи могут использовать языковые модели искусственного интеллекта (ИИ), такие как ChatGPT, для написания и пересмотра научных рукописей, согласно сообщению Международного комитета редакторов медицинских журналов (ICMJE). По мнению комитета, авторы этих инструментов не должны быть указаны, и исследователи должны указать, как использовались технологии с использованием искусственного интеллекта.
Эти новые руководящие принципы являются последней попыткой медицинских журналов определить политику использования этих крупномасштабных языковых моделей (LLM) в научных публикациях. Хотя эти инструменты с поддержкой искусственного интеллекта могут помочь в решении таких задач, как написание, анализ данных, выявление ошибок и многое другое, они также подвержены ошибкам, отметил профессор биомедицинской информатики медицинской школы Университета Колорадо в Авроре, штат Колорадо. Также не совсем ясно, как информация хранится и обрабатывается в такого рода инструментах, и кто имеет доступ к этой информации, отметил он.

Доктор Кейси Грин
В то же время эксперты утверждают, что эти инструменты искусственного интеллекта могли бы оказать положительное влияние на отрасль, ограничив некоторые лингвистические различия в научных публикациях, а также облегчив бремя некоторых монотонных или механических задач, связанных с написанием рукописей.
Однако в чем эксперты могут согласиться, так это в том, что использование инструментов искусственного интеллекта никуда не денется. “Это станет распространенным инструментом”, – сказал Грин. “Я не думаю, что на данный момент из этого есть выход”.
Изменения в медицинском издательстве
OpenAI выпустила ChatGPT в ноябре 2022 года. По его собственным словам, ChatGPT – это “модель глубокого обучения, которая была обучена на огромном количестве текстовых данных, чтобы понимать и генерировать текст, похожий на человеческий”. Введите вопрос или приглашение, и он ответит. Например, когда его спросили, как инструмент искусственного интеллекта может быть использован в научных публикациях, ChatGPT ответил:
“ChatGPT может помочь научной публикации, генерируя идеи, разъясняя концепции, проводя предварительные обзоры литературы, предоставляя предложения по корректуре и редактированию, а также помогая с изложением и организацией научных статей. Однако его следует использовать в качестве вспомогательного инструмента наряду с экспертизой предметной области и подтверждением из надежных научных источников”.
Всего через несколько месяцев после того, как ChatGPT стал доступен, исследователи начали использовать этот инструмент в своей собственной работе. По сообщениям The Daily Beast, один человек, Сом Бисвас, доктор медицинских наук, радиолог из Медицинского научного центра Университета Теннесси в Мемфисе, использовал ChatGPT для создания всего за 4 месяца. Пять из этих статей были опубликованы в четырех разных журналах. Бисвас отказался давать интервью для этой статьи.
Были также сообщения о статьях с ChatGPT в качестве одного из перечисленных авторов, которые . В ответ JAMA, Nature и Science опубликовали в январе редакционные статьи, в которых изложили свою политику использования ChatGPT и других крупных языковых моделей в процессе научной разработки. Редакторы журналов the и the (ACR) также обновили свою политику, чтобы отразить влияние инструментов разработки искусственного интеллекта.
Все сходятся во мнении, что ИИ не место в подписи автора.

Доктор Дэниел Соломон
“Мы считаем, что это неуместно, потому что соавторство означает, что вы берете на себя ответственность за анализ и генерацию данных, которые включены в рукопись. Машина, управляемая искусственным интеллектом, не может брать на себя ответственность”, – сказал Дэниел Соломон, доктор медицинских наук, MPH, ревматолог из больницы Бригама и женской больницы Бостона и главный редактор журнала ACR Arthritis & Rheumatology.
Проблемы с искусственным интеллектом
Одна из серьезных проблем, связанных с использованием искусственного интеллекта в письменной форме, заключается в том, что он может генерировать текст, который кажется правдоподобным, но не соответствует действительности или не подтверждается данными. Например, Грин и его коллега, также из Медицинской школы Университета Колорадо, писали журнальную статью о том, что для редактирования научных рукописей используется большая языковая модель.

Доктор Милтон Пивидори
“Мы использовали то же программное обеспечение для редактирования этой статьи, и в какой-то момент оно добавило строку, в которой отмечалось, что большая языковая модель была точно настроена на наборе данных рукописей из той же области. В этом есть большой смысл, и это абсолютно то, что вы могли бы сделать, но мы этого не сделали”, – сказал Грин. “Без действительно тщательного изучения контента становится возможным изобретать вещи, которые на самом деле не были сделаны”.
В другом случае известный профессор права был обвинен в сексуальном насилии со ссылкой на несуществующую статью в Washington Post.
“Мы живем в обществе, где мы чрезвычайно обеспокоены фейковыми новостями, – добавил Пивидори, – и [такого рода ошибки], безусловно, могут усугубить ситуацию в научном сообществе, что очень беспокоит, потому что наука информирует государственную политику”.
Другой проблемой является отсутствие прозрачности в отношении того, как большие языковые модели, такие как ChatGPT, обрабатывают и хранят данные, используемые для выполнения запросов.
“Мы понятия не имеем, как они записывают все подсказки и прочее, что мы вводим в ChatGPT и их системы”, – сказал Пивидори.
Недавно OpenAI решила некоторые проблемы конфиденциальности, разрешив пользователям использовать чат-бота с искусственным интеллектом, поэтому разговоры нельзя использовать для обучения или улучшения моделей компании. Но Грин отметил, что условия предоставления услуг “по-прежнему остаются довольно туманными”.
Соломон также обеспокоен тем, что исследователи используют эти инструменты искусственного интеллекта при разработке, не зная, как они работают. “Что нас действительно беспокоит, так это тот факт, что [LLMS] являются чем—то вроде черного ящика – люди на самом деле не понимают методологий”, – сказал он.
Позитивный инструмент?
Но, несмотря на эти опасения, многие считают, что подобные инструменты с поддержкой искусственного интеллекта могли бы оказать положительное влияние на медицинские публикации, особенно для исследователей, для которых английский не является родным языком, отметил преподаватель пульмонологии и интенсивной терапии в Медицинской школе Файнберга Северо-Западного университета в Чикаго. Недавно она сравнила научные рефераты, написанные ChatGPT, и реальные рефераты и обнаружила, что рецензентам “на удивление трудно” отличить одно от другого.
“Большинство исследований опубликовано на английском языке”, – написала она по электронной почте. “Ответственное использование LLMS потенциально может снизить бремя написания статей для занятых ученых и повысить справедливость для тех, кто не является носителем английского языка”.
Пивидори согласился, добавив, что, не являясь носителем английского языка, он тратит гораздо больше времени на работу над структурой и грамматикой предложений при написании рукописи, по сравнению с людьми, для которых английский является родным языком. Он отметил, что эти инструменты также могут быть использованы для автоматизации некоторых более монотонных задач, связанных с написанием рукописей, и позволяют исследователям сосредоточиться на более творческих аспектах.
В будущем “я хочу больше сосредоточиться на вещах, которые может делать только человек, и позволить этим инструментам делать все остальное”, – сказал он.
Новые правила
Но, несмотря на то, как отдельные исследователи относятся к LLM, они согласны с тем, что эти инструменты искусственного интеллекта никуда не денутся.
“Я думаю, что мы должны ожидать, что со временем они станут частью медицинского исследовательского учреждения, когда мы выясним, как их правильно использовать”, – сказал Соломон.
Хотя дискуссия о том, как наилучшим образом использовать искусственный интеллект в медицинских публикациях, будет продолжаться, редакторы журналов согласны с тем, что все авторы рукописи несут единоличную ответственность за содержание статей, в которых использовались технологии с использованием искусственного интеллекта.
“Авторы должны тщательно просмотреть и отредактировать результат, поскольку искусственный интеллект может генерировать авторитетно звучащие результаты, которые могут быть неверными, неполными или предвзятыми”, – говорится в руководстве ICMJE.