Новый подход к соавторству человека и ИИ в создании текстов, который поможет избежать споров в научной и образовательной среде, предложили исследователи Самарского университета им. Королёва. Результаты опубликованы в журнале "Семиотические исследования".
Активное внедрение нейросетей в научную деятельность ставит вопрос о том, можно ли признавать системы искусственного интеллекта полноценными соавторами человеческих публикаций. Социологи Самарского национального исследовательского университета имени академика С.П. Королёва показали, что в мировой практике уже встречаются случаи, когда искусственный интеллект (ИИ) указывают в числе авторов научных статей, а в некоторых ситуациях — как единственного создателя работы.
В статье рассказано о некоторых прецедентах в международных базах данных Web of Science и Scopus, в которых были размещены четыре статьи, где ChatGPT указан как автор, включая два случая, когда было указано его единоличное авторство. В базе Scopus есть как минимум две публикации с ИИ-соавторством, причем в одном случае чат-бот был позднее исключен из списка авторов по требованию редакции журнала.
Чтобы глубже изучить эту проблему, специалисты вуза проанализировали процесс создания текстов с использованием ИИ. По словам исследователей, полученные результаты показали, что традиционное понимание авторства в условиях генеративного ИИ требует пересмотра. Человек здесь выступает не только как творец, но прежде всего как куратор, редактор и интерпретатор.
"Мы пришли к выводу, что такие работы обладают гибридной природой. Этот подход открывает путь к новым моделям "распределенного" и "переплетенного" авторства, где ИИ становится участником творческого процесса, но конечная ответственность за содержание остается за "исследователем-человеком", — прокомментировала Наталья Масленкова, доцент кафедры социологии и культурологии Самарского университета им. Королёва.
Особое внимание исследователи уделили этическим проблемам, связанным с использованием генеративного интеллекта для написания научных текстов. Известны риски академического "мошенничества", например, когда человек выдает содержание, полностью сгенерированное ИИ, за своё, не принимая на себя роль редактора и ответственного автора.
"Наши выводы могут лечь в основу этических и правовых норм, повышающих прозрачность использования ИИ и предотвращающих злоупотребления. Это особенно важно для образовательной, научной и медийной сфер, где возникает вопрос, кто несёт ответственность за контент, созданный с участием ИИ", — считают авторы статьи.
Как рассказали специалисты вуза, новизна выполненной ими работы заключается в том, что она не ограничивается лишь юридическим анализом, а использует комплексный подход, сочетающий философский, социокультурный и правовой анализ. Исследователи связывают современные практики работы с ИИ с теориями распределённого и сетевого авторства, что позволяет глубже понять трансформацию роли человека и машины в создании текстов.
Одна из точек зрения приводит аргументы в пользу того, что ИИ — это "стохастический попугай", имитирующий человеческую речь на основе статистики. Его "субъектность" пока социальный конструкт, отражающий коллективный вклад разработчиков и пользователей.
На данном этапе перед учеными стоит задача разработки рекомендаций по прозрачному и ответственному использованию генеративных моделей в образовании и научных публикациях, а также изучения того, как меняются представления об авторстве у разных социальных групп по мере распространения ИИ.
Источник: ria.ru