Telegram Group & Telegram Channel
Нейросети против Кембриджа: почему с ИИ думать нужно будет еще больше

За последнюю неделю услышал две истории про студентов и ChatGPT. Кратко — все повально списывают с чата, не разбирая, что он выдает.

В первом случае студентам нужно было расчитать бюджет и они взяли цифру в 2500, не поняв даже, что это цена в долларах. Во втором доверились устаревшей информации от чата.

И это касается не только студентов.

Нейросети требуют повышенной информационной осознанности. Первое — понимать как вообще ИИ создает информацию. Знать, где будут галлюцинации, а где можно довериться модели. Второе — сохранять эпистемологическую бдительность при работе с каждым битом знания из любого источника – от ИИ до эксперта.

Последнее я упоминал в посте про «особенности исследователя», который, смотря на белый дом, на ответ «Какого цвета дом» не задумываясь отвечает «С этой стороны белый».

Когда миллионы агентов вырвутся в интернет, нашей задачей будет понимать методологию, корректировать их через обратную связь и вот эта эпистемологическая бдительность.

Что касается студентов, то никуда от ИИ не деться, но подходы к обучению надо будет менять.

В 2023 году в Кембридже, после распространения ChatGPT его фактически запретили использовать. Полгода шли дебаты о неизбежности интеграции ИИ в образовательный процесс. За этот период появилось множество сервисов, предлагающих помощь в исследованиях с использованием ИИ, что сделало его запрет невозможным.

Летом 2024 года университет представил документ «Этика использования искусственного интеллекта в исследованиях». Он устанавливает два ключевых принципа использования ИИ в работах:

1. Принцип прозрачности
Разрешено использовать ИИ, но студенты обязаны к любой работе писать рефлексию с ответами на вопросы: «Какие ИИ использовались», «Какие промпты задавались», «Что было использовано, что отвергнуто и почему».

2. Запрет прямого копирования
Нет Ctrl+C, Ctrl+V! Хотя надежных источников определения плагиата все еще нет. И страдают студенты, чей англ. язык не родной — их не нейтив формулировки антиплагиат часто ошибочно воспринимает за ИИ.

Есть ожидания, что требования к работам студентов вырастут из-за компенсаторного механизма. Поскольку студенты теперь имеют доступ к мощным инструментам, от них будет ожидаться еще более глубокий анализ и оригинальность мышления.

И не только от академических исследователей.



group-telegram.com/dsoloveev/553
Create:
Last Update:

Нейросети против Кембриджа: почему с ИИ думать нужно будет еще больше

За последнюю неделю услышал две истории про студентов и ChatGPT. Кратко — все повально списывают с чата, не разбирая, что он выдает.

В первом случае студентам нужно было расчитать бюджет и они взяли цифру в 2500, не поняв даже, что это цена в долларах. Во втором доверились устаревшей информации от чата.

И это касается не только студентов.

Нейросети требуют повышенной информационной осознанности. Первое — понимать как вообще ИИ создает информацию. Знать, где будут галлюцинации, а где можно довериться модели. Второе — сохранять эпистемологическую бдительность при работе с каждым битом знания из любого источника – от ИИ до эксперта.

Последнее я упоминал в посте про «особенности исследователя», который, смотря на белый дом, на ответ «Какого цвета дом» не задумываясь отвечает «С этой стороны белый».

Когда миллионы агентов вырвутся в интернет, нашей задачей будет понимать методологию, корректировать их через обратную связь и вот эта эпистемологическая бдительность.

Что касается студентов, то никуда от ИИ не деться, но подходы к обучению надо будет менять.

В 2023 году в Кембридже, после распространения ChatGPT его фактически запретили использовать. Полгода шли дебаты о неизбежности интеграции ИИ в образовательный процесс. За этот период появилось множество сервисов, предлагающих помощь в исследованиях с использованием ИИ, что сделало его запрет невозможным.

Летом 2024 года университет представил документ «Этика использования искусственного интеллекта в исследованиях». Он устанавливает два ключевых принципа использования ИИ в работах:

1. Принцип прозрачности
Разрешено использовать ИИ, но студенты обязаны к любой работе писать рефлексию с ответами на вопросы: «Какие ИИ использовались», «Какие промпты задавались», «Что было использовано, что отвергнуто и почему».

2. Запрет прямого копирования
Нет Ctrl+C, Ctrl+V! Хотя надежных источников определения плагиата все еще нет. И страдают студенты, чей англ. язык не родной — их не нейтив формулировки антиплагиат часто ошибочно воспринимает за ИИ.

Есть ожидания, что требования к работам студентов вырастут из-за компенсаторного механизма. Поскольку студенты теперь имеют доступ к мощным инструментам, от них будет ожидаться еще более глубокий анализ и оригинальность мышления.

И не только от академических исследователей.

BY soloveev: жизнь на марсе 👩‍🎤


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/dsoloveev/553

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

On December 23rd, 2020, Pavel Durov posted to his channel that the company would need to start generating revenue. In early 2021, he added that any advertising on the platform would not use user data for targeting, and that it would be focused on “large one-to-many channels.” He pledged that ads would be “non-intrusive” and that most users would simply not notice any change. "We as Ukrainians believe that the truth is on our side, whether it's truth that you're proclaiming about the war and everything else, why would you want to hide it?," he said. Sebi said data, emails and other documents are being retrieved from the seized devices and detailed investigation is in progress. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. You may recall that, back when Facebook started changing WhatsApp’s terms of service, a number of news outlets reported on, and even recommended, switching to Telegram. Pavel Durov even said that users should delete WhatsApp “unless you are cool with all of your photos and messages becoming public one day.” But Telegram can’t be described as a more-secure version of WhatsApp.
from id


Telegram soloveev: жизнь на марсе 👩‍🎤
FROM American