Новости

Ведущие университеты высказались насчет использования ИИ в учёбе

Группа Russel, частью которой являются университеты: Оксфорд, Кембридж, Бристоль и Дарем, опубликовала ряд принципов, которые помогут университетам использовать преимущества искусственного интеллекта.

Об этом сообщает novoetv.kz со ссылкой на zakon.kz. В заявлении, поддержанном вице-канцлерами 24 университетов группы Russel, говорится, что они стремятся поддерживать этичное и ответственное использование инструментов искусственного интеллекта. Они также выражают намерение сохранить академическую честность, как сообщает Sky News.

ChatGPT – это приложение для генерации текста, которое может отвечать на вопросы, создавать сценарии и писать эссе. Однако есть опасения, что некоторые студенты могут использовать его для выполнения заданий.

В заявлении университетов подчеркивается, что использование генеративного искусственного интеллекта в образовании “имеет потенциал для повышения качества обучения студентов, улучшения навыков критического мышления и подготовки студентов к реальному применению технологий генеративного ИИ”.

“Все сотрудники, поддерживающие обучение студентов, должны иметь возможность разрабатывать учебные занятия, материалы и оценки, которые включают творческое использование инструментов генеративного ИИ, где это уместно”.

В мае министр образования Великобритании, Джиллиан Киган, запросила предоставить доказательства возможного использования генеративного искусственного интеллекта в образовательных учреждениях. В связи с опасениями относительно возможности списывания, связанного с использованием искусственного интеллекта, некоторые экзаменационные комиссии страны предложили обязывать студентов выполнять работы “в классе под прямым наблюдением”.

“Обеспечение академической честности и этичного использования генеративного ИИ также может быть достигнуто путем создания среды, в которой студенты могут задавать вопросы о конкретных случаях его использования и обсуждать связанные с этим проблемы открыто и без страха наказания”.

Статьи по теме

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Back to top button