Forwarded from HealthNet | Медицина 🔬
Программа позволит участникам упаковать свои продукты под запросы и приоритеты нацпроектов «Продолжительная и активная жизнь» и «Новые технологии сбережения здоровья» и подготовить их к продвижению в рамках федеральной системы здравоохранения.
Для стартапов, исследовательских коллективов и компаний в сфере MedTech и Digital Health, которые хотят не просто получить бустер для развития своих проектов, но и внедрять их в масштабах национальной системы здравоохранения страны.
Требования к уровню участников: в приоритете — готовые продукты, но рассматриваем также стартапы от уровня MVP.
По итогам акселератора команды получат практический гайд по продвижению проектов в рамках национальных и федеральных программ, а также ценную экспертизу для масштабирования решений в здравоохранении.
В рамках ускорителя участники смогут пообщаться и получить обратную связь от топовых специалистов из Сеченовского университета, СамГМУ, НМИЦ ТПМ Минздрава России, Фонда Сколково, Министерства образования и науки СО, Региональных центров Инжиниринга.
«Сегодня ключевая задача — не просто создавать инновации в медицинских технологиях, а формировать их прикладную ценность для системы здравоохранения. Акселератор «МЕДТЕХ НАВИГАТОР» помогает разработчикам выстроить правильную траекторию интеграции в федеральные программы и национальные проекты»,
— отмечает Мария Галямова, руководитель ИЦ HealthNet НТИ.
#акселератор #медтех #хелстех #медицинскиестартапы #биотех #биомед #нацпроекты
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤10👍8👌4🔥1
Друзья, ловите осознанную рекомендацию👇
Бластим на курсах и вообще помогает ученым получать реально востребованные хардскиллы, однако мы всегда мягко напоминаем, что не стоит забывать и про развитие карьеры. Не стыдно быть немножко карьеристом. Но где (помимо Бластим) искать советы, точки роста и ориентиры?
Для всех, кто думает о своем месте в науке, медицине и биотехе, советуем канал @IMC_education.
Это не про абстрактные советы «верь в себя», а про конкретные карьерные стратегии. Здесь вы найдете:
→ Интервью с теми, кто уже прошел путь: ученые, врачи и топ-менеджеры из фармы и биотеха делятся опытом — как они строили свою карьерную траекторию.
→ Тактики развития: как планировать рост, куда двигаться и на что обращать внимание.
→ Возможности: анонсы стажировок, программ и интересных проектов, где пригодятся ваши навыки.
🔻 Если вы хотите управлять своей карьерой, а не просто плыть по течению, — вам точно стоит подписаться на канал «Карьерных возможностей»
#бластим_рекомендует
Бластим на курсах и вообще помогает ученым получать реально востребованные хардскиллы, однако мы всегда мягко напоминаем, что не стоит забывать и про развитие карьеры. Не стыдно быть немножко карьеристом. Но где (помимо Бластим) искать советы, точки роста и ориентиры?
Для всех, кто думает о своем месте в науке, медицине и биотехе, советуем канал @IMC_education.
Это не про абстрактные советы «верь в себя», а про конкретные карьерные стратегии. Здесь вы найдете:
→ Интервью с теми, кто уже прошел путь: ученые, врачи и топ-менеджеры из фармы и биотеха делятся опытом — как они строили свою карьерную траекторию.
→ Тактики развития: как планировать рост, куда двигаться и на что обращать внимание.
→ Возможности: анонсы стажировок, программ и интересных проектов, где пригодятся ваши навыки.
#бластим_рекомендует
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍7⚡5
Это язык, который делает жизнь ученых проще:
• почистит и отформатирует таблицы за мгновение
• скачает нужные файлы с NCBI или других баз
• подготовит и проведет анализ точнее и быстрее, чем уставший аспирант
А ещё на Python надежный «вайб-кодинг»: пишешь запрос человеческим языком → ИИ переводит его на «змеиный» → можно запускать код. Возможности почти безграничны. Открытые форумы помогают LLM эффективнее учиться и выдавать хорошие скрипты. Главное — самому понимать основы, чтобы не пугаться и проверять, что там навайбил ИИ.
Для знакомства с «π-научным сотрудником» Бластим подготовил два бесплатных вебинара с Александром Ильиным:
Регистрация: clck.ru/3PeRTN
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉11🔥9 8❤2
Мастер анализа Александр Ильин отвечает на вопросы по Python и разбирает датасеты, показывая, как обработать таблички с помощью кода
Сначала непривычно, особенно, если привык к графическому интерфейсу, но преподаватель на всё отвечает и дает советы
В конце, как всегда, сюрприз и полезный скрипт: мини-гайд по циклу while и numpy 🐍
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10 8🔥5👍1
Нерон и Нейрон: ИИ — моя Римская империя 🏛
Древние римляне много писали. Ежегодно обнаруживают до полутора тысяч латинских начертаний — высеченные на камне и выгравированные на монументах, в публичных пространствах и частных домах, нацарапанные на заборах... Надписи позволяют напрямую ощутить повседневную жизнь людей разных слоев обществ прошлого — от бытовых забот до политики и экономики. Это исследует дисциплина эпиграфика 🖋🪦
🔨 Однако за тысячелетия буквы стерлись, предметы с надписями разрушились или были перемещены. Вдобавок римляне злоупотребляли сокращениями и аббревиатурами. Всё это затрудняет и без того сложную расшифровку и интерпретацию, которой занимаются историки и археологи. Традиционно эксперты вручную ищут параллели — надписи с похожими словами, фразами, синтаксисом. Они нужны для контекстуализации. Изнурительный процесс сравнения текстов требует невероятной эрудиции и может затягиваться на месяцы и даже годы. Алгоритмы применялись, но они ограничивались буквальными совпадениями и не считывали смысл. Пришло время нейросетей.
🏺 Специалисты из Google DeepMind под руководством Янниса Ассаэля совместно с академическими учеными создали мультимодальную генеративную модель Aeneas, дабы автоматизировать процесс реконструкции старинной латыни и облегчить участь историков. Название отсылает к мифическому герою Троянской войны Энею, сыну богини Венеры, предку Ромула и Рема. Статья вышла в июле в Nature.
Aeneas принимает на вход транскрибированный латинский текст с пропусками нескольких символов (-) или фрагментов неизвестной длины (#), а также фотоснимки надписей. Ранее модели учитывали исключительно текст, тогда как много деталей можно почерпнуть из внешнего вида физических носителей.
🎭 Как в классической драме соблюдаются три единства, так и Aeneas решает три нетривиальные задачи: действие — заполняет гэпы в тексте, место — выдвигает предположение о регионе происхождения надписи, выбирая одну из 62 римских провинций и, наконец, время — предсказывает датировку с точностью до десятилетия.
Всем этим занимаются три нейросети (головы), принимающие данные от декодера трансформера T5, обрабатывающего исходные символы. Для обучения машинлернеры собрали корпус из 176 тыс. латинских надписей (для 5% были и картинки) за 15 веков со всех уголков Pax Romana — от Британии до Ирака. Aeneas восстанавливает обломки текста, даже когда вообще неизвестно, какой объем утерян! Исторически обогащенные эмбеддинги из T5 применяются для поиска в векторном пространстве, куда спроецирован весь датасет надписей: в итоге получается ранжированный список аналогов. Это прогресс по сравнению с предшествующей моделью Ithaca для древнегреческого языка. А еще в состав Aeneas входит ResNet-8 для обработки фото: эта визуальная информация учитывалась при географической атрибуции. Простейший пример: строку
👑 Ллмку проверили на знаменитом документе эпохи императора Октавиана — Res Gestae Divi Augusti («Деяния божественного Августа»), лучшая копия которого сохранилась на каменной стене храма в Анкаре 🇹🇷. Полагаясь только на тонкие лингвистические маркеры, ИИ сузил оценку возраста монументального трактата до двух периодов (10–1 гг. до н. э. и 10–20 гг. н. э). К таким же выводам пришли эксперты. Но за годы трудов и дебатов.
Конечно, Aeneas не заместит опытных профессионалов, однако позволит им мгновенно находить параллели и сосредотачиваться сразу на самых вероятных версиях. 23 приглашенных эпиграфиста уже протестили модель: в 9 из 10 случаев она дала полезную затравку и инсайты. Сейчас датасет и код полностью доступны, открыт сайт predictingthepast.com
🏆 Думаете, это чудеса и технологии уровня олимпийских богов? Вовсе нет: ученые из разных сфер используют те же самые архитектуры и тулы для обработки данных, которые изучают даже студенты. Скажем, в приложении к статье про Aeneas можно обнаружить, что рисечеры юзали ython
Древние римляне много писали. Ежегодно обнаруживают до полутора тысяч латинских начертаний — высеченные на камне и выгравированные на монументах, в публичных пространствах и частных домах, нацарапанные на заборах... Надписи позволяют напрямую ощутить повседневную жизнь людей разных слоев обществ прошлого — от бытовых забот до политики и экономики. Это исследует дисциплина эпиграфика 🖋🪦
🔨 Однако за тысячелетия буквы стерлись, предметы с надписями разрушились или были перемещены. Вдобавок римляне злоупотребляли сокращениями и аббревиатурами. Всё это затрудняет и без того сложную расшифровку и интерпретацию, которой занимаются историки и археологи. Традиционно эксперты вручную ищут параллели — надписи с похожими словами, фразами, синтаксисом. Они нужны для контекстуализации. Изнурительный процесс сравнения текстов требует невероятной эрудиции и может затягиваться на месяцы и даже годы. Алгоритмы применялись, но они ограничивались буквальными совпадениями и не считывали смысл. Пришло время нейросетей.
🏺 Специалисты из Google DeepMind под руководством Янниса Ассаэля совместно с академическими учеными создали мультимодальную генеративную модель Aeneas, дабы автоматизировать процесс реконструкции старинной латыни и облегчить участь историков. Название отсылает к мифическому герою Троянской войны Энею, сыну богини Венеры, предку Ромула и Рема. Статья вышла в июле в Nature.
Aeneas принимает на вход транскрибированный латинский текст с пропусками нескольких символов (-) или фрагментов неизвестной длины (#), а также фотоснимки надписей. Ранее модели учитывали исключительно текст, тогда как много деталей можно почерпнуть из внешнего вида физических носителей.
🎭 Как в классической драме соблюдаются три единства, так и Aeneas решает три нетривиальные задачи: действие — заполняет гэпы в тексте, место — выдвигает предположение о регионе происхождения надписи, выбирая одну из 62 римских провинций и, наконец, время — предсказывает датировку с точностью до десятилетия.
Всем этим занимаются три нейросети (головы), принимающие данные от декодера трансформера T5, обрабатывающего исходные символы. Для обучения машинлернеры собрали корпус из 176 тыс. латинских надписей (для 5% были и картинки) за 15 веков со всех уголков Pax Romana — от Британии до Ирака. Aeneas восстанавливает обломки текста, даже когда вообще неизвестно, какой объем утерян! Исторически обогащенные эмбеддинги из T5 применяются для поиска в векторном пространстве, куда спроецирован весь датасет надписей: в итоге получается ранжированный список аналогов. Это прогресс по сравнению с предшествующей моделью Ithaca для древнегреческого языка. А еще в состав Aeneas входит ResNet-8 для обработки фото: эта визуальная информация учитывалась при географической атрибуции. Простейший пример: строку
#us populusque Romanus
ИИ дополняет до Senatus populusque Romanus
(«Сенат и народ Рима»).👑 Ллмку проверили на знаменитом документе эпохи императора Октавиана — Res Gestae Divi Augusti («Деяния божественного Августа»), лучшая копия которого сохранилась на каменной стене храма в Анкаре 🇹🇷. Полагаясь только на тонкие лингвистические маркеры, ИИ сузил оценку возраста монументального трактата до двух периодов (10–1 гг. до н. э. и 10–20 гг. н. э). К таким же выводам пришли эксперты. Но за годы трудов и дебатов.
Конечно, Aeneas не заместит опытных профессионалов, однако позволит им мгновенно находить параллели и сосредотачиваться сразу на самых вероятных версиях. 23 приглашенных эпиграфиста уже протестили модель: в 9 из 10 случаев она дала полезную затравку и инсайты. Сейчас датасет и код полностью доступны, открыт сайт predictingthepast.com
numpy, pandas
для стандартизации датасетов, seaborn, matplotlib
для графиков, а также другие библиотеки. Все дороги ведут в... PPlease open Telegram to view this post
VIEW IN TELEGRAM
👍13🥰6💯5 3❤1😁1
Многие из вас наверняка уже участвовали в наших вебинарах по Python или проходили похожие курсы. Мы стараемся, чтобы даже бесплатные материалы были максимально полезными для научных задач.
Но признавайтесь, было же такое:
Смотришь, повторяешь за преподавателем — вроде всё понятно. А потом открываешь свои данные — краш за крашем. Файлы не читаются, структура другая, код выдает ошибки, а ChatGPT не спасает. Для новичка это сплошные подводные камни. Без помощи происходит быстрый откат к состоянию «сложно, непонятно и потом как-нибудь»
Так значит, быстрого и легкого решения не существует?
Да, к сожалению. Отдельные занятия нужны, но лишь чтобы «помочить ножки в воде». Они дают шанс оценить возможности и понять направление развития, но не помогают с конкретной задачей.
На полном курсе «Python для анализа данных в науке» подход совсем другой. Мы детально адаптируемся под задачи исследователей: какие данные используются, что и как нужно посчитать, визуализировать или сравнить. Затем разбираем актуальные подходы и собираем код по шагам, фрагмент за фрагментом, с постоянной обратной связью — пока всё точно не заработает на ваших данных.
Вы не просто прослушаете курс — вы уйдете с готовыми решениями. Не теория, а навык в действии.
А если вы уверены в своих знаниях, пройдите наш тест: clck.ru/3PhEsL
Но поторопитесь! Завтра последний день до повышения цены на курс
Please open Telegram to view this post
VIEW IN TELEGRAM
Прошла неделя со старта курса «Статистика, R и анализ данных» 🎉
Наши участники уже делают первые, но уверенные шаги в R на пути к превращению своих датасетов в статьи Q1-уровня.
А вообще, сегодня вторник — идеальный день, чтобы вдохновиться и всем попробовать что-нибудь визуализировать. #TidyTuesday — это комьюнити-проект для любителей R. Каждую неделю публикуется новый открытый датасет, и сообщество R-энтузиастов придумывает самые разные способы его анализировать. Это целая коллекция творческих экспериментов с графиками. Главное правило — работать только в R, без доработок в иллюстраторах🎨
А на картинке поста, кстати, пример из октября прошлых лет🎃
Чтобы R не вызывал ужас и у вас, успейте на ультрараннее бронирование на весенний поток курса по самой выгодной цене!
🗓 Даты: март-апрель 2026
💬 А с любыми вопросами можно обращаться к Варваре: @varvara_blastim
Успейте забронировать место до того, как впадете в зимнюю спячку. Весной проснетесь и сразу начнете превращать данные в красивые и понятные графики↗️
Наши участники уже делают первые, но уверенные шаги в R на пути к превращению своих датасетов в статьи Q1-уровня.
А вообще, сегодня вторник — идеальный день, чтобы вдохновиться и всем попробовать что-нибудь визуализировать. #TidyTuesday — это комьюнити-проект для любителей R. Каждую неделю публикуется новый открытый датасет, и сообщество R-энтузиастов придумывает самые разные способы его анализировать. Это целая коллекция творческих экспериментов с графиками. Главное правило — работать только в R, без доработок в иллюстраторах
А на картинке поста, кстати, пример из октября прошлых лет
Тема: Horror Movies
Данные: количество фильмов ужасов, выпущенных по годам
Автор: Benjamin Uveges — геобиолог и специалист по осадочным породам
Тип графика: «Skeleton» — комбинация барплотов и точек в жутковато-забавной композиции. «Зубы» показывают соотношение выпущенных фильмов по месяцам (октябрь, конечно же, выделен оранжевым), а «глаза» обозначают периоды с минимальной (пустой круг) и максимальной (заполненной) выручкой.
Вывод: фильмов ужасов становится всё больше. Пик релизов приходится на октябрь, но самые прибыльные месяцы не всегда совпадают с самыми «страшными».
Чтобы R не вызывал ужас и у вас, успейте на ультрараннее бронирование на весенний поток курса по самой выгодной цене!
Успейте забронировать место до того, как впадете в зимнюю спячку. Весной проснетесь и сразу начнете превращать данные в красивые и понятные графики
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10 10 4❤3
Ваш маленький БОЛЬШОЙ скачок в Python
В минувшую субботу питонист Александр Ильин провел очень продуктивный вебинар по анализу данных на Python. По горячим следам мы подготовили конспект занятия с самыми полезными методами обработки таблиц — чрезвычайно распространенного типа данных в науке. При виде очередного монструозного датафрейма впредь не придется судорожно гуглить или спрашивать у чата гопоты, как сделать то-сё, пятое, десятое.
🦞 Забирайте: ссылка на полный анализ датасета рачков на Pandas с лайфхаками и советами ↗️
Подходит и для новичков, и тех, кто уже кодил
#бластим_технологии
В минувшую субботу питонист Александр Ильин провел очень продуктивный вебинар по анализу данных на Python. По горячим следам мы подготовили конспект занятия с самыми полезными методами обработки таблиц — чрезвычайно распространенного типа данных в науке. При виде очередного монструозного датафрейма впредь не придется судорожно гуглить или спрашивать у чата гопоты, как сделать то-сё, пятое, десятое.
🦞 Забирайте: ссылка на полный анализ датасета рачков на Pandas с лайфхаками и советами ↗️
Подходит и для новичков, и тех, кто уже кодил
#бластим_технологии
😁13🔥7❤6🎉2
Part one
Докладываем с полей: сегодня с самого утра и до вечера команда Бластим под руководством прекрасной Александры общалась со студентами, учеными и представителями индустрии.
Спасибо всем, кто делился с нами эмоциями от пройденных курсов и радостью от подарков!
Друзья, ждем встречи с вами на других конференциях, а пока всем доброй ночи
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥6👍5❤🔥3
🔥6👍2❤1
from ilyin import wisdom — разбираемся в библиотеках Python с Александром Ильиным 📣
Вы уже слышали про списки и векторы, прошли курсы по основам Python, открывали Google Colab и даже писали import something... Но как всё это прикрутить к реальным данным — особенно если они с приставкой bio — остается загадкой?
🐍 Если с уровня «А1» на змеином языке никак не сдвинуться, то пора по библиотекам! Зовем всех на бесплатный вебинар: «Как выбрать нужную библиотеку в Python под задачу? С чего начать работу с библиотекой?»
Когда? Эта суббота, 18 октября, в 12:00 мск
Вместе с матерым преподавателем Александром Ильиным:
• разберетесь, зачем вообще нужны библиотеки и где их искать
• научитесь устанавливать и импортировать их без страха ошибок
• узнаете, какие пакеты помогают работать с биологическими данными
• подберете решения под конкретные задачи и быстро проверите их в Jupyter
Во время встречи можно задавать вопросы вживую. Александр разберет ваш кейс и подскажет, с чего начать💬
А еще в конце вебинара вы получите подборку must-have библиотек и рекомендации для прокачки навыка, который значительно расширит ваши карьерные возможности.
«Читательский билет» в мир Python-библиотек здесь: clck.ru/3PkJZZ🔗
Вы уже слышали про списки и векторы, прошли курсы по основам Python, открывали Google Colab и даже писали import something... Но как всё это прикрутить к реальным данным — особенно если они с приставкой bio — остается загадкой?
Когда? Эта суббота, 18 октября, в 12:00 мск
Вместе с матерым преподавателем Александром Ильиным:
• разберетесь, зачем вообще нужны библиотеки и где их искать
• научитесь устанавливать и импортировать их без страха ошибок
• узнаете, какие пакеты помогают работать с биологическими данными
• подберете решения под конкретные задачи и быстро проверите их в Jupyter
Во время встречи можно задавать вопросы вживую. Александр разберет ваш кейс и подскажет, с чего начать
А еще в конце вебинара вы получите подборку must-have библиотек и рекомендации для прокачки навыка, который значительно расширит ваши карьерные возможности.
«Читательский билет» в мир Python-библиотек здесь: clck.ru/3PkJZZ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍9🔥5
Доверяй и не проверяй: вайб-кодинг
В феврале этого года с твита Андрея Карпатого зародился термин вайб-кодинг (ВК), и вот уже весь 2025 проходит под его знаком. ВК — это когда ты полностью доверяешь LLM (к примеру, ChatGPT, GitHub Copilot или CursorAI) написание программы. Текстовыми или голосовыми промтами ты излагаешь свою идею, нейросеть кодит, ты принимаешь, запускаешь, если ошибка — просишь пофиксить, снова запускаешь и т.д. Никакого код-ревью! ВК делает программирование доступным всем и, возможно, даже заменит опытных айтишников. Но так ли хорош ВК, как кажется на первый взгляд?
Итак, какие подводные камни ВК?
🧌 Непредсказуемость: генеративный ИИ до сих пор может ошибаться в самых простых вещах: чат-боты плохо считают (2010 год был 15 лет назад? ИИ: нет), и в программировании делают ошибки. Результаты нейросети носят вероятностный характер: на один и тот же инпут, может быть получен разный аутпут. Компьютерные программы, наоборот, должны вести себя однозначно.
⌛️ Псевдоэкономия времени: вайб-код — это черный ящик, его трудно интерпретировать и, соответственно, исправить руками, а отладка с помощью нейросети не так проста. Когда вы просите LLM устранить ошибку в коде, вы можете столкнуться с непониманием: играет роль и двусмысленность, зашитая в человеческом языке, на котором пишутся промты. В результате нужно просить внести правки снова и снова. Процесс может затянуться и свести на нет заявленную скорость.
🧠 Шаблонность: ИИ хорошо справится с небольшими кусками кода для типовых задач. Но когда нужны креативные решения, инновации и тонкая чуйка — тут ИИ слаб.
📏 Ограничение размера контекстного окна: если перебрать с числом токенов, модель может остановиться на полпути генерации кода.
📜 Устаревшая документация и синтаксис: ИИ может не знать про апдейты библиотек, фреймворков (например, недавно вышел настоящий пи-тон 3.14) и использовать deprecated функции (нежелательные и замененные на новые в свежих версиях), а также не учитывать зависимости.
🌀 Галлюцинации: ИИ может ссылаться на неопределенные переменные или функции, написать красивые, но совершенно излишние фрагменты кода, обратиться к ненастоящим или даже вредоносным пакетам.
🐢 Неоптимальные решения: нейросети не озабочены вопросами производительности и эффективности алгоритмов.
🔒 Неполные знания: LLM тренировались на публичном коде с GitHub и подобных хранилищ, без доступа к корпоративному закрытому коду, отсюда — незнание узких областей и непонимание контекста и специфики вашего проекта/домена.
🧩 Трудности интеграции: вайб-код часто пишется несвязанными блоками без соблюдения code style и практик разработки ПО, так что отдельные куски потом невозможно объединить в единое целое.
🥷 Безопасность: нейросети обучались в том числе на коде с уязвимостями и могут их воспроизводить, что чревато утечкой конфиденциальных данных.
⚖️ Этика: кто будет отвечать за работу сгенеренного кода, если он приведет к опасной ошибке, допустим, удалит базу данных?
👉 Поэтому ждем вас завтра на вебинаре по Python в 12:00 мск,
#бластим_технологии
В феврале этого года с твита Андрея Карпатого зародился термин вайб-кодинг (ВК), и вот уже весь 2025 проходит под его знаком. ВК — это когда ты полностью доверяешь LLM (к примеру, ChatGPT, GitHub Copilot или CursorAI) написание программы. Текстовыми или голосовыми промтами ты излагаешь свою идею, нейросеть кодит, ты принимаешь, запускаешь, если ошибка — просишь пофиксить, снова запускаешь и т.д. Никакого код-ревью! ВК делает программирование доступным всем и, возможно, даже заменит опытных айтишников. Но так ли хорош ВК, как кажется на первый взгляд?
⚠️ Warning: обычно те, кто раздают советы, уже умеют программировать и отнюдь не на уровне junior. Скажем, Андрей Карпатый — очень прошаренный разработчик, сооснователь OpenAI и экс-руководитель проекта автопилота Tesla, автор крутого блога по нейросетям. Ему никакие LLM не нужны: он вайб-кодит по фану. Новичкам не стоит примерять рекомендации таких гуру сразу на себя
Итак, какие подводные камни ВК?
🧌 Непредсказуемость: генеративный ИИ до сих пор может ошибаться в самых простых вещах: чат-боты плохо считают (2010 год был 15 лет назад? ИИ: нет), и в программировании делают ошибки. Результаты нейросети носят вероятностный характер: на один и тот же инпут, может быть получен разный аутпут. Компьютерные программы, наоборот, должны вести себя однозначно.
⌛️ Псевдоэкономия времени: вайб-код — это черный ящик, его трудно интерпретировать и, соответственно, исправить руками, а отладка с помощью нейросети не так проста. Когда вы просите LLM устранить ошибку в коде, вы можете столкнуться с непониманием: играет роль и двусмысленность, зашитая в человеческом языке, на котором пишутся промты. В результате нужно просить внести правки снова и снова. Процесс может затянуться и свести на нет заявленную скорость.
🧠 Шаблонность: ИИ хорошо справится с небольшими кусками кода для типовых задач. Но когда нужны креативные решения, инновации и тонкая чуйка — тут ИИ слаб.
📏 Ограничение размера контекстного окна: если перебрать с числом токенов, модель может остановиться на полпути генерации кода.
📜 Устаревшая документация и синтаксис: ИИ может не знать про апдейты библиотек, фреймворков (например, недавно вышел настоящий пи-тон 3.14) и использовать deprecated функции (нежелательные и замененные на новые в свежих версиях), а также не учитывать зависимости.
🌀 Галлюцинации: ИИ может ссылаться на неопределенные переменные или функции, написать красивые, но совершенно излишние фрагменты кода, обратиться к ненастоящим или даже вредоносным пакетам.
🐢 Неоптимальные решения: нейросети не озабочены вопросами производительности и эффективности алгоритмов.
🔒 Неполные знания: LLM тренировались на публичном коде с GitHub и подобных хранилищ, без доступа к корпоративному закрытому коду, отсюда — незнание узких областей и непонимание контекста и специфики вашего проекта/домена.
🧩 Трудности интеграции: вайб-код часто пишется несвязанными блоками без соблюдения code style и практик разработки ПО, так что отдельные куски потом невозможно объединить в единое целое.
🥷 Безопасность: нейросети обучались в том числе на коде с уязвимостями и могут их воспроизводить, что чревато утечкой конфиденциальных данных.
⚖️ Этика: кто будет отвечать за работу сгенеренного кода, если он приведет к опасной ошибке, допустим, удалит базу данных?
TL;DR: вайб-кодинг позволяет получить сносный одноразовый код для быстрой проверки идеи, но несет риски для серьезных долгосрочных проектов. Лучше использовать ИИ как друга-сеньора и кодить собственноручно. Так что без знания хотя бы одного языка программирования пока не обойдешься🙁
чтобы не умереть за вайб-дебаггингом
#бластим_технологии
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤8🔥7👍4😁4
Добро пожаловать в Python Library
Прямо сейчас Александр Ильин рассказывает и показывает, как пользоваться библиотеками в Python и настраивать окружение!
Заходите на вебинар и пишите вопросы в чат — никого не оставим без внимания:
Бонусом все участники получат гайд «Как выкачивать статьи из Pubmed»
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
«Python для анализа данных в науке» собирает участников с разным уровнем подготовки. Некоторые уже писали скрипты, а для кого-то Jupyter выглядит как планета с ошибкой в названии. Каждый продвигается в своем темпе, но все чувствуют себя комфортно.
Мы специально выстроили обучение так, чтобы:
• кто только начинает — не терялся и не чувствовал давления
• кто уже что-то умеет — не скучал и находил для себя массу нового и полезного
Преподаватель Александр Ильин и команда технических ассистентов ведут вас почти за руку в мир Python не только на лекциях. Они помогают разбирать домашние задания и проекты, созваниваются лично, объясняют ошибки и поддерживают на каждом этапе. Фактически становятся персональными репетиторами.
При этом сохраняются все плюсы группового формата:
• поддержка и мотивация от единомышленников
• обмен опытом с коллегами
• возможность выйти из «информационного пузыря» и завести полезные знакомства
А все занятия остаются с вами и после окончания курса: можно пересматривать уроки, освежать знания и быть уверенным, что ничего не упустили.
Каждый профессионал когда-то начинал с нуля. Главное, сделать первый шаг, а дальше мы вас подхватим. Python — совсем не страшно. Гораздо страшнее упустить проект мечты из-за нехватки базового навыка.
Подробности и регистрация здесь:
clck.ru/3PoqDgPlease open Telegram to view this post
VIEW IN TELEGRAM
❤11 7⚡5