Warning: mkdir(): No space left on device in /var/www/group-telegram/post.php on line 37

Warning: file_put_contents(aCache/aDaily/post/dsoloveev/--): Failed to open stream: No such file or directory in /var/www/group-telegram/post.php on line 50
soloveev: жизнь на марсе 👩‍🎤 | Telegram Webview: dsoloveev/553 -
Telegram Group & Telegram Channel
Нейросети против Кембриджа: почему с ИИ думать нужно будет еще больше

За последнюю неделю услышал две истории про студентов и ChatGPT. Кратко — все повально списывают с чата, не разбирая, что он выдает.

В первом случае студентам нужно было расчитать бюджет и они взяли цифру в 2500, не поняв даже, что это цена в долларах. Во втором доверились устаревшей информации от чата.

И это касается не только студентов.

Нейросети требуют повышенной информационной осознанности. Первое — понимать как вообще ИИ создает информацию. Знать, где будут галлюцинации, а где можно довериться модели. Второе — сохранять эпистемологическую бдительность при работе с каждым битом знания из любого источника – от ИИ до эксперта.

Последнее я упоминал в посте про «особенности исследователя», который, смотря на белый дом, на ответ «Какого цвета дом» не задумываясь отвечает «С этой стороны белый».

Когда миллионы агентов вырвутся в интернет, нашей задачей будет понимать методологию, корректировать их через обратную связь и вот эта эпистемологическая бдительность.

Что касается студентов, то никуда от ИИ не деться, но подходы к обучению надо будет менять.

В 2023 году в Кембридже, после распространения ChatGPT его фактически запретили использовать. Полгода шли дебаты о неизбежности интеграции ИИ в образовательный процесс. За этот период появилось множество сервисов, предлагающих помощь в исследованиях с использованием ИИ, что сделало его запрет невозможным.

Летом 2024 года университет представил документ «Этика использования искусственного интеллекта в исследованиях». Он устанавливает два ключевых принципа использования ИИ в работах:

1. Принцип прозрачности
Разрешено использовать ИИ, но студенты обязаны к любой работе писать рефлексию с ответами на вопросы: «Какие ИИ использовались», «Какие промпты задавались», «Что было использовано, что отвергнуто и почему».

2. Запрет прямого копирования
Нет Ctrl+C, Ctrl+V! Хотя надежных источников определения плагиата все еще нет. И страдают студенты, чей англ. язык не родной — их не нейтив формулировки антиплагиат часто ошибочно воспринимает за ИИ.

Есть ожидания, что требования к работам студентов вырастут из-за компенсаторного механизма. Поскольку студенты теперь имеют доступ к мощным инструментам, от них будет ожидаться еще более глубокий анализ и оригинальность мышления.

И не только от академических исследователей.



group-telegram.com/dsoloveev/553
Create:
Last Update:

Нейросети против Кембриджа: почему с ИИ думать нужно будет еще больше

За последнюю неделю услышал две истории про студентов и ChatGPT. Кратко — все повально списывают с чата, не разбирая, что он выдает.

В первом случае студентам нужно было расчитать бюджет и они взяли цифру в 2500, не поняв даже, что это цена в долларах. Во втором доверились устаревшей информации от чата.

И это касается не только студентов.

Нейросети требуют повышенной информационной осознанности. Первое — понимать как вообще ИИ создает информацию. Знать, где будут галлюцинации, а где можно довериться модели. Второе — сохранять эпистемологическую бдительность при работе с каждым битом знания из любого источника – от ИИ до эксперта.

Последнее я упоминал в посте про «особенности исследователя», который, смотря на белый дом, на ответ «Какого цвета дом» не задумываясь отвечает «С этой стороны белый».

Когда миллионы агентов вырвутся в интернет, нашей задачей будет понимать методологию, корректировать их через обратную связь и вот эта эпистемологическая бдительность.

Что касается студентов, то никуда от ИИ не деться, но подходы к обучению надо будет менять.

В 2023 году в Кембридже, после распространения ChatGPT его фактически запретили использовать. Полгода шли дебаты о неизбежности интеграции ИИ в образовательный процесс. За этот период появилось множество сервисов, предлагающих помощь в исследованиях с использованием ИИ, что сделало его запрет невозможным.

Летом 2024 года университет представил документ «Этика использования искусственного интеллекта в исследованиях». Он устанавливает два ключевых принципа использования ИИ в работах:

1. Принцип прозрачности
Разрешено использовать ИИ, но студенты обязаны к любой работе писать рефлексию с ответами на вопросы: «Какие ИИ использовались», «Какие промпты задавались», «Что было использовано, что отвергнуто и почему».

2. Запрет прямого копирования
Нет Ctrl+C, Ctrl+V! Хотя надежных источников определения плагиата все еще нет. И страдают студенты, чей англ. язык не родной — их не нейтив формулировки антиплагиат часто ошибочно воспринимает за ИИ.

Есть ожидания, что требования к работам студентов вырастут из-за компенсаторного механизма. Поскольку студенты теперь имеют доступ к мощным инструментам, от них будет ожидаться еще более глубокий анализ и оригинальность мышления.

И не только от академических исследователей.

BY soloveev: жизнь на марсе 👩‍🎤


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/dsoloveev/553

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The company maintains that it cannot act against individual or group chats, which are “private amongst their participants,” but it will respond to requests in relation to sticker sets, channels and bots which are publicly available. During the invasion of Ukraine, Pavel Durov has wrestled with this issue a lot more prominently than he has before. Channels like Donbass Insider and Bellum Acta, as reported by Foreign Policy, started pumping out pro-Russian propaganda as the invasion began. So much so that the Ukrainian National Security and Defense Council issued a statement labeling which accounts are Russian-backed. Ukrainian officials, in potential violation of the Geneva Convention, have shared imagery of dead and captured Russian soldiers on the platform. As such, the SC would like to remind investors to always exercise caution when evaluating investment opportunities, especially those promising unrealistically high returns with little or no risk. Investors should also never deposit money into someone’s personal bank account if instructed. As a result, the pandemic saw many newcomers to Telegram, including prominent anti-vaccine activists who used the app's hands-off approach to share false information on shots, a study from the Institute for Strategic Dialogue shows. Some privacy experts say Telegram is not secure enough Asked about its stance on disinformation, Telegram spokesperson Remi Vaughn told AFP: "As noted by our CEO, the sheer volume of information being shared on channels makes it extremely difficult to verify, so it's important that users double-check what they read."
from ms


Telegram soloveev: жизнь на марсе 👩‍🎤
FROM American