Решение этической дилеммы ответственности в больших языковых моделях

Исследователи из Оксфордского университета в сотрудничестве с международными экспертами опубликовали в журнале Nature Machine Intelligence новое исследование, посвященное сложным этическим вопросам, связанным с ответственностью за результаты, генерируемые большими языковыми моделями (БЯМ).

Исследование показывает, что LLM, такие как ChatGPT, ставят важнейшие вопросы, касающиеся присвоения заслуг и прав на генерацию полезного текста, отклоняясь от традиционных дебатов об ответственности ИИ, которые в основном фокусировались на вредных последствиях.

«LLM, такие как ChatGPT, вызывают острую необходимость в обновлении нашей концепции ответственности», — говорят Себастьян Порсдам Манн и Брайан Д. Эрп, совместные первые авторы исследования.

Ключевой вывод исследования, по словам соавторов Свена Нихольма и Джона Данахера, «заключается в том, что, хотя люди, использующие эти технологии, не могут полностью присвоить себе заслугу за положительные результаты, генерируемые LLM, все же представляется целесообразным возлагать на них ответственность за вредное использование, например, генерирование дезинформации или небрежность при проверке точности» генерируемого текста.

Это может привести к ситуации, которую Найхолм и Данахер, основываясь на предыдущей работе, назвали «разрывом в достижениях»: «Полезная работа выполняется, но люди не могут получить за нее такого удовлетворения или признания, как раньше».

Джулиан Савулеску, старший автор статьи, добавляет: «Нам нужны рекомендации по авторству, требованиям к раскрытию информации, использованию в образовательных целях и интеллектуальной собственности, опираясь на существующие нормативные документы и аналогичные дебаты, например, по усовершенствованию человека». Нормы, требующие прозрачности, особенно важны, продолжает Савулеску, «чтобы отслеживать ответственность и правильно распределять похвалу и вину».

Исследование, соавторами которого выступила междисциплинарная команда экспертов в области права, биоэтики, машинного обучения и смежных областей, посвящено потенциальному влиянию LLM в таких критических областях, как образование, академические публикации, интеллектуальная собственность и создание дезинформации.

Образование и издательское дело особенно нуждаются в быстрых действиях по разработке руководящих принципов использования и ответственности LLM. «Мы рекомендуем включать в статьи заявление об использовании LLM, а также соответствующую дополнительную информацию», — заявляют соавторы Джон Макмиллан и Дэниел Роджер. «Раскрытие информации для LLM должно быть таким же, как и для соавторов-людей, с признанием значительного вклада».

В статье отмечается, что LLM могут быть полезны в образовании, но предупреждается, что они подвержены ошибкам, и их чрезмерное использование может повлиять на навыки критического мышления. Авторы пишут, что учебным заведениям следует рассмотреть возможность адаптации стилей оценки, переосмысления педагогики и обновления руководства по академическим нарушениям для эффективного использования LLM.

Права в создаваемом тексте, такие как права интеллектуальной собственности и права человека, составляют еще одну область, в которой последствия использования LLM должны быть быстро проработаны, отмечает соавтор Моника Плоцца.