Telegram Group & Telegram Channel
Нейросети против Кембриджа: почему с ИИ думать нужно будет еще больше

За последнюю неделю услышал две истории про студентов и ChatGPT. Кратко — все повально списывают с чата, не разбирая, что он выдает.

В первом случае студентам нужно было расчитать бюджет и они взяли цифру в 2500, не поняв даже, что это цена в долларах. Во втором доверились устаревшей информации от чата.

И это касается не только студентов.

Нейросети требуют повышенной информационной осознанности. Первое — понимать как вообще ИИ создает информацию. Знать, где будут галлюцинации, а где можно довериться модели. Второе — сохранять эпистемологическую бдительность при работе с каждым битом знания из любого источника – от ИИ до эксперта.

Последнее я упоминал в посте про «особенности исследователя», который, смотря на белый дом, на ответ «Какого цвета дом» не задумываясь отвечает «С этой стороны белый».

Когда миллионы агентов вырвутся в интернет, нашей задачей будет понимать методологию, корректировать их через обратную связь и вот эта эпистемологическая бдительность.

Что касается студентов, то никуда от ИИ не деться, но подходы к обучению надо будет менять.

В 2023 году в Кембридже, после распространения ChatGPT его фактически запретили использовать. Полгода шли дебаты о неизбежности интеграции ИИ в образовательный процесс. За этот период появилось множество сервисов, предлагающих помощь в исследованиях с использованием ИИ, что сделало его запрет невозможным.

Летом 2024 года университет представил документ «Этика использования искусственного интеллекта в исследованиях». Он устанавливает два ключевых принципа использования ИИ в работах:

1. Принцип прозрачности
Разрешено использовать ИИ, но студенты обязаны к любой работе писать рефлексию с ответами на вопросы: «Какие ИИ использовались», «Какие промпты задавались», «Что было использовано, что отвергнуто и почему».

2. Запрет прямого копирования
Нет Ctrl+C, Ctrl+V! Хотя надежных источников определения плагиата все еще нет. И страдают студенты, чей англ. язык не родной — их не нейтив формулировки антиплагиат часто ошибочно воспринимает за ИИ.

Есть ожидания, что требования к работам студентов вырастут из-за компенсаторного механизма. Поскольку студенты теперь имеют доступ к мощным инструментам, от них будет ожидаться еще более глубокий анализ и оригинальность мышления.

И не только от академических исследователей.



group-telegram.com/dsoloveev/553
Create:
Last Update:

Нейросети против Кембриджа: почему с ИИ думать нужно будет еще больше

За последнюю неделю услышал две истории про студентов и ChatGPT. Кратко — все повально списывают с чата, не разбирая, что он выдает.

В первом случае студентам нужно было расчитать бюджет и они взяли цифру в 2500, не поняв даже, что это цена в долларах. Во втором доверились устаревшей информации от чата.

И это касается не только студентов.

Нейросети требуют повышенной информационной осознанности. Первое — понимать как вообще ИИ создает информацию. Знать, где будут галлюцинации, а где можно довериться модели. Второе — сохранять эпистемологическую бдительность при работе с каждым битом знания из любого источника – от ИИ до эксперта.

Последнее я упоминал в посте про «особенности исследователя», который, смотря на белый дом, на ответ «Какого цвета дом» не задумываясь отвечает «С этой стороны белый».

Когда миллионы агентов вырвутся в интернет, нашей задачей будет понимать методологию, корректировать их через обратную связь и вот эта эпистемологическая бдительность.

Что касается студентов, то никуда от ИИ не деться, но подходы к обучению надо будет менять.

В 2023 году в Кембридже, после распространения ChatGPT его фактически запретили использовать. Полгода шли дебаты о неизбежности интеграции ИИ в образовательный процесс. За этот период появилось множество сервисов, предлагающих помощь в исследованиях с использованием ИИ, что сделало его запрет невозможным.

Летом 2024 года университет представил документ «Этика использования искусственного интеллекта в исследованиях». Он устанавливает два ключевых принципа использования ИИ в работах:

1. Принцип прозрачности
Разрешено использовать ИИ, но студенты обязаны к любой работе писать рефлексию с ответами на вопросы: «Какие ИИ использовались», «Какие промпты задавались», «Что было использовано, что отвергнуто и почему».

2. Запрет прямого копирования
Нет Ctrl+C, Ctrl+V! Хотя надежных источников определения плагиата все еще нет. И страдают студенты, чей англ. язык не родной — их не нейтив формулировки антиплагиат часто ошибочно воспринимает за ИИ.

Есть ожидания, что требования к работам студентов вырастут из-за компенсаторного механизма. Поскольку студенты теперь имеют доступ к мощным инструментам, от них будет ожидаться еще более глубокий анализ и оригинальность мышления.

И не только от академических исследователей.

BY soloveev: жизнь на марсе 👩‍🎤


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/dsoloveev/553

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The Security Service of Ukraine said in a tweet that it was able to effectively target Russian convoys near Kyiv because of messages sent to an official Telegram bot account called "STOP Russian War." In February 2014, the Ukrainian people ousted pro-Russian president Viktor Yanukovych, prompting Russia to invade and annex the Crimean peninsula. By the start of April, Pavel Durov had given his notice, with TechCrunch saying at the time that the CEO had resisted pressure to suppress pages criticizing the Russian government. This ability to mix the public and the private, as well as the ability to use bots to engage with users has proved to be problematic. In early 2021, a database selling phone numbers pulled from Facebook was selling numbers for $20 per lookup. Similarly, security researchers found a network of deepfake bots on the platform that were generating images of people submitted by users to create non-consensual imagery, some of which involved children. Groups are also not fully encrypted, end-to-end. This includes private groups. Private groups cannot be seen by other Telegram users, but Telegram itself can see the groups and all of the communications that you have in them. All of the same risks and warnings about channels can be applied to groups. "The argument from Telegram is, 'You should trust us because we tell you that we're trustworthy,'" Maréchal said. "It's really in the eye of the beholder whether that's something you want to buy into."
from us


Telegram soloveev: жизнь на марсе 👩‍🎤
FROM American