Telegram Group & Telegram Channel
🇮🇱 ИИ в армии Израиля превращает точность в массовые жертвы

🤖 Современные вооружённые конфликты демонстрируют тенденцию к интеграции алгоритмических систем в процессы планирования и ведения боевых действий. Применение Израилем ИИ в кампании в Газе стало одним из наиболее показательных примеров того, как автоматизация военного анализа и наведения ударов влияет на статистическое распределение человеческих жертв и характер самого конфликта.

🔵 Согласно информации из внутренней базы данных израильской армии, опубликованной изданиями +972 Magazine, The Guardian и Local Call, за весь период военных действий были уничтожены около 8,9 тысячи лиц, классифицированных как боевики ХАМАС или «Исламского джихада». При сопоставлении этих данных с общим числом погибших (53 тысячи) в секторе Газа выявляется критическая диспропорция: не менее 83 % жертв составляют гражданские лица, что свидетельствует о том, что при всей интенсивности применения вооружённых средств основное воздействие пришлось на некомбатантов.

🤖 Понять механизм, лежащий в основе этих результатов, могут стоящие на вооружении ВС Израиля ИИ-системы The Gospel и Lavender, о которых стало ранее известно из публикаций The Guardian и +972 Magazine. Первая система функционирует как автоматизированный генератор целей, вторая − как инструмент массовой классификации людей по степени предполагаемой причастности к боевым структурам. Процесс принятия решений во многих случаях сводился к минимальной верификации: офицеры тратили на подтверждение цели всего около 20 секунд. Ошибки идентификации оценивались примерно в 10%, что в условиях масштабного применения приводило к значительному числу ложных положительных результатов.

❗️ Однако реальная статистика жертв среди мирного населения Газы свидетельствует о том, что даже такой уровень погрешности в работе ИИ выглядит условным и, вероятно, заниженным. Масштабность операций, ограниченность времени на проверку и высокая степень автоматизации создают предпосылки к тому, что реальные показатели ложноположительных результатов могли быть значительно выше. При этом не исключается и иной сценарий: военное руководство могло осознанно принимать высокий уровень гражданских потерь как допустимую «плату» за интенсивность и скорость ведения кампании. В обоих случаях статистическая диспропорция между числом ликвидированных боевиков и масштабом гибели некомбатантов указывает на системный характер проблемы, а не на случайные издержки применения искусственного интеллекта.

↔️ Таким образом, формируется ситуация, в которой ИИ перестаёт выступать инструментом повышения точности и превращается в механизм масштабного поражения. Приоритет в принятии решений отдаётся объёму и скорости генерации целей, а не качеству и достоверности идентификации. В результате гибель гражданских перестаёт быть для Израиля "сопутствующим ущербом" и приобретает системный характер, что и подтверждается статистическими данными.

💬 Опыт израильской операции позволяет выделить несколько ключевых выводов:
🔴статистические данные о распределении жертв демонстрируют, что существующая модель применения ИИ в военной сфере не соответствует заявленным принципам «точных ударов» и минимизации ущерба для гражданского населения;
🔴использование ИИ в условиях недостаточной проверки и контроля сопряжено с высокой вероятностью ошибок, последствия которых носят необратимый характер;
🔴автоматизация снижает уровень индивидуальной ответственности за каждое конкретное решение о применении силы.

🛡 В совокупности данные факторы указывают на то, что внедрение ИИ в боевые операции без жёстких механизмов контроля и ответственности создаёт системный риск массовых потерь среди гражданских, а статистическая диспропорция между боевиками и некомбатантами отражает не случайные ошибки, а структурный характер проблемы.

#Школа_МИБ #Новости_МИБ #Израиль #ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6😱5🔥43❤‍🔥2



group-telegram.com/iis_mib_school/938
Create:
Last Update:

🇮🇱 ИИ в армии Израиля превращает точность в массовые жертвы

🤖 Современные вооружённые конфликты демонстрируют тенденцию к интеграции алгоритмических систем в процессы планирования и ведения боевых действий. Применение Израилем ИИ в кампании в Газе стало одним из наиболее показательных примеров того, как автоматизация военного анализа и наведения ударов влияет на статистическое распределение человеческих жертв и характер самого конфликта.

🔵 Согласно информации из внутренней базы данных израильской армии, опубликованной изданиями +972 Magazine, The Guardian и Local Call, за весь период военных действий были уничтожены около 8,9 тысячи лиц, классифицированных как боевики ХАМАС или «Исламского джихада». При сопоставлении этих данных с общим числом погибших (53 тысячи) в секторе Газа выявляется критическая диспропорция: не менее 83 % жертв составляют гражданские лица, что свидетельствует о том, что при всей интенсивности применения вооружённых средств основное воздействие пришлось на некомбатантов.

🤖 Понять механизм, лежащий в основе этих результатов, могут стоящие на вооружении ВС Израиля ИИ-системы The Gospel и Lavender, о которых стало ранее известно из публикаций The Guardian и +972 Magazine. Первая система функционирует как автоматизированный генератор целей, вторая − как инструмент массовой классификации людей по степени предполагаемой причастности к боевым структурам. Процесс принятия решений во многих случаях сводился к минимальной верификации: офицеры тратили на подтверждение цели всего около 20 секунд. Ошибки идентификации оценивались примерно в 10%, что в условиях масштабного применения приводило к значительному числу ложных положительных результатов.

❗️ Однако реальная статистика жертв среди мирного населения Газы свидетельствует о том, что даже такой уровень погрешности в работе ИИ выглядит условным и, вероятно, заниженным. Масштабность операций, ограниченность времени на проверку и высокая степень автоматизации создают предпосылки к тому, что реальные показатели ложноположительных результатов могли быть значительно выше. При этом не исключается и иной сценарий: военное руководство могло осознанно принимать высокий уровень гражданских потерь как допустимую «плату» за интенсивность и скорость ведения кампании. В обоих случаях статистическая диспропорция между числом ликвидированных боевиков и масштабом гибели некомбатантов указывает на системный характер проблемы, а не на случайные издержки применения искусственного интеллекта.

↔️ Таким образом, формируется ситуация, в которой ИИ перестаёт выступать инструментом повышения точности и превращается в механизм масштабного поражения. Приоритет в принятии решений отдаётся объёму и скорости генерации целей, а не качеству и достоверности идентификации. В результате гибель гражданских перестаёт быть для Израиля "сопутствующим ущербом" и приобретает системный характер, что и подтверждается статистическими данными.

💬 Опыт израильской операции позволяет выделить несколько ключевых выводов:
🔴статистические данные о распределении жертв демонстрируют, что существующая модель применения ИИ в военной сфере не соответствует заявленным принципам «точных ударов» и минимизации ущерба для гражданского населения;
🔴использование ИИ в условиях недостаточной проверки и контроля сопряжено с высокой вероятностью ошибок, последствия которых носят необратимый характер;
🔴автоматизация снижает уровень индивидуальной ответственности за каждое конкретное решение о применении силы.

🛡 В совокупности данные факторы указывают на то, что внедрение ИИ в боевые операции без жёстких механизмов контроля и ответственности создаёт системный риск массовых потерь среди гражданских, а статистическая диспропорция между боевиками и некомбатантами отражает не случайные ошибки, а структурный характер проблемы.

#Школа_МИБ #Новости_МИБ #Израиль #ИИ

BY Школа МИБ




Share with your friend now:
group-telegram.com/iis_mib_school/938

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

The gold standard of encryption, known as end-to-end encryption, where only the sender and person who receives the message are able to see it, is available on Telegram only when the Secret Chat function is enabled. Voice and video calls are also completely encrypted. Messages are not fully encrypted by default. That means the company could, in theory, access the content of the messages, or be forced to hand over the data at the request of a government. But Kliuchnikov, the Ukranian now in France, said he will use Signal or WhatsApp for sensitive conversations, but questions around privacy on Telegram do not give him pause when it comes to sharing information about the war. On February 27th, Durov posted that Channels were becoming a source of unverified information and that the company lacks the ability to check on their veracity. He urged users to be mistrustful of the things shared on Channels, and initially threatened to block the feature in the countries involved for the length of the war, saying that he didn’t want Telegram to be used to aggravate conflict or incite ethnic hatred. He did, however, walk back this plan when it became clear that they had also become a vital communications tool for Ukrainian officials and citizens to help coordinate their resistance and evacuations. Founder Pavel Durov says tech is meant to set you free
from us


Telegram Школа МИБ
FROM American