Telegram Group & Telegram Channel
Нейросети против Кембриджа: почему с ИИ думать нужно будет еще больше

За последнюю неделю услышал две истории про студентов и ChatGPT. Кратко — все повально списывают с чата, не разбирая, что он выдает.

В первом случае студентам нужно было расчитать бюджет и они взяли цифру в 2500, не поняв даже, что это цена в долларах. Во втором доверились устаревшей информации от чата.

И это касается не только студентов.

Нейросети требуют повышенной информационной осознанности. Первое — понимать как вообще ИИ создает информацию. Знать, где будут галлюцинации, а где можно довериться модели. Второе — сохранять эпистемологическую бдительность при работе с каждым битом знания из любого источника – от ИИ до эксперта.

Последнее я упоминал в посте про «особенности исследователя», который, смотря на белый дом, на ответ «Какого цвета дом» не задумываясь отвечает «С этой стороны белый».

Когда миллионы агентов вырвутся в интернет, нашей задачей будет понимать методологию, корректировать их через обратную связь и вот эта эпистемологическая бдительность.

Что касается студентов, то никуда от ИИ не деться, но подходы к обучению надо будет менять.

В 2023 году в Кембридже, после распространения ChatGPT его фактически запретили использовать. Полгода шли дебаты о неизбежности интеграции ИИ в образовательный процесс. За этот период появилось множество сервисов, предлагающих помощь в исследованиях с использованием ИИ, что сделало его запрет невозможным.

Летом 2024 года университет представил документ «Этика использования искусственного интеллекта в исследованиях». Он устанавливает два ключевых принципа использования ИИ в работах:

1. Принцип прозрачности
Разрешено использовать ИИ, но студенты обязаны к любой работе писать рефлексию с ответами на вопросы: «Какие ИИ использовались», «Какие промпты задавались», «Что было использовано, что отвергнуто и почему».

2. Запрет прямого копирования
Нет Ctrl+C, Ctrl+V! Хотя надежных источников определения плагиата все еще нет. И страдают студенты, чей англ. язык не родной — их не нейтив формулировки антиплагиат часто ошибочно воспринимает за ИИ.

Есть ожидания, что требования к работам студентов вырастут из-за компенсаторного механизма. Поскольку студенты теперь имеют доступ к мощным инструментам, от них будет ожидаться еще более глубокий анализ и оригинальность мышления.

И не только от академических исследователей.



group-telegram.com/dsoloveev/553
Create:
Last Update:

Нейросети против Кембриджа: почему с ИИ думать нужно будет еще больше

За последнюю неделю услышал две истории про студентов и ChatGPT. Кратко — все повально списывают с чата, не разбирая, что он выдает.

В первом случае студентам нужно было расчитать бюджет и они взяли цифру в 2500, не поняв даже, что это цена в долларах. Во втором доверились устаревшей информации от чата.

И это касается не только студентов.

Нейросети требуют повышенной информационной осознанности. Первое — понимать как вообще ИИ создает информацию. Знать, где будут галлюцинации, а где можно довериться модели. Второе — сохранять эпистемологическую бдительность при работе с каждым битом знания из любого источника – от ИИ до эксперта.

Последнее я упоминал в посте про «особенности исследователя», который, смотря на белый дом, на ответ «Какого цвета дом» не задумываясь отвечает «С этой стороны белый».

Когда миллионы агентов вырвутся в интернет, нашей задачей будет понимать методологию, корректировать их через обратную связь и вот эта эпистемологическая бдительность.

Что касается студентов, то никуда от ИИ не деться, но подходы к обучению надо будет менять.

В 2023 году в Кембридже, после распространения ChatGPT его фактически запретили использовать. Полгода шли дебаты о неизбежности интеграции ИИ в образовательный процесс. За этот период появилось множество сервисов, предлагающих помощь в исследованиях с использованием ИИ, что сделало его запрет невозможным.

Летом 2024 года университет представил документ «Этика использования искусственного интеллекта в исследованиях». Он устанавливает два ключевых принципа использования ИИ в работах:

1. Принцип прозрачности
Разрешено использовать ИИ, но студенты обязаны к любой работе писать рефлексию с ответами на вопросы: «Какие ИИ использовались», «Какие промпты задавались», «Что было использовано, что отвергнуто и почему».

2. Запрет прямого копирования
Нет Ctrl+C, Ctrl+V! Хотя надежных источников определения плагиата все еще нет. И страдают студенты, чей англ. язык не родной — их не нейтив формулировки антиплагиат часто ошибочно воспринимает за ИИ.

Есть ожидания, что требования к работам студентов вырастут из-за компенсаторного механизма. Поскольку студенты теперь имеют доступ к мощным инструментам, от них будет ожидаться еще более глубокий анализ и оригинальность мышления.

И не только от академических исследователей.

BY soloveev: жизнь на марсе 👩‍🎤


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/dsoloveev/553

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Now safely in France with his spouse and three of his children, Kliuchnikov scrolls through Telegram to learn about the devastation happening in his home country. READ MORE But Kliuchnikov, the Ukranian now in France, said he will use Signal or WhatsApp for sensitive conversations, but questions around privacy on Telegram do not give him pause when it comes to sharing information about the war. Despite Telegram's origins, its approach to users' security has privacy advocates worried. "There are a lot of things that Telegram could have been doing this whole time. And they know exactly what they are and they've chosen not to do them. That's why I don't trust them," she said.
from sg


Telegram soloveev: жизнь на марсе 👩‍🎤
FROM American