
Компания по анализу данных Palantir, предоставляя израильским вооружённым силам поддержку в области искусственного интеллекта, ориентированную на целеуказание и анализ данных, указала на то, что эти технологии используются в геноциде в Газе, в нападениях США и Израиля на Иран и в Ливане.
Американская компания по анализу данных Palantir, которая в январе 2024 года решила продолжить сотрудничество с Израилем, предложила израильским военным поддержку искусственного интеллекта, ориентированного на целеуказание и анализ данных, в то время как освещение в прессе и обзоры указывали на то, что эти технологии использовались в геноциде в Газе, нападениях США и Израиля на Иран и в Ливане.
Palantir, объединяя технологии искусственного интеллекта с оборонными расходами и интегрируя основанную на данных разведку в военные операции на местах, продолжает оставаться поставщиком технологий, занимающим центральное место в оборонных системах, благодаря заключённым контрактам. Palantir, подписавший в 2025 году соглашение с армией США на сумму 10 миллиардов долларов, является основным партнёром в программе «Maven», в рамках которой Министерство обороны США (Пентагон) использует технологии искусственного интеллекта для обнаружения целей.

Соучредители Palantir Алекс Карп и Питер Тиль в январе 2024 года провели заседание совета директоров компании в Тель-Авиве, Израиль, и встретились с президентом Израиля Исааком Герцогом. В тот же день Карп и Тиль также встретились с представителями Министерства обороны Израиля и пришли к соглашению о достижении стратегического партнёрства с израильской армией.
В этом контексте компания объявила, что будет предоставлять израильским вооружённым силам технологическую поддержку на основе искусственного интеллекта, ориентированную на определение целей и анализ данных, для использования в «задачах, связанных с войной», однако не раскрыла подробностей о масштабах соглашения и предоставляемых услугах.
Карп также в интервью прессе, находясь в Тель-Авиве, заявил, что наблюдается растущий спрос на услуги компании со стороны Израиля, и отметил, что они начали предоставлять Израилю продукты, отличные от тех, которые они предлагали до 7 октября 2023 года.
"Я горжусь тем, что мы всячески поддерживаем Израиль." - Карп изложил институциональный подход Палантира к Израилю и масштабы сотрудничества с Израилем.
В заявлении международной неправительственной организации «Business and Human Rights Resource Centre» за 2024 год было указано, что технологическая поддержка, предоставляемая Palantir израильской армии, непосредственно используется в нападениях на Газу. Palantir, в свою очередь, отверг эти обвинения, заявив, что его работа в Израиле началась ещё до 7 октября 2023 года и что эта работа соответствует глобальной поддержке, которую он оказывает своим союзникам в США.
В книге "Философ в долине: Алекс Карп, Палантир и возникновение государства наблюдения", написанной Майклом Штайнбергером и описывающей жизнь Карпа, цитируется, что Израиль использовал технологии Палантира в своих атаках на высокопоставленных сотрудников "Хезболлы" в Ливане в 2024 году.американской газеты Washington Post сообщается, что Пентагон при планировании атак на Иран использовал модель Claude от стартапа в области искусственного интеллекта Anthropic и интеллектуальную систему Maven, разработанную компанией Palantir.

Было отмечено, что интегрированная с Claude система Maven, используя передовые технологии искусственного интеллекта, определяет возможные цели в Иране и предоставляет их точные координаты.Также было указано, что система использовалась при организации военного нападения на президента Венесуэлы Николаса Мадуро с целью его свержения в пользу США.
В апреле 2025 года американской технологической компании Microsoft исполнилось 50 лет. На ежегодном мероприятии Ибтихал Абусаад, протестуя против сотрудничества компании с Израилем, сказал корреспонденту АА, что системы анализа данных Palantir играют решающую роль в военных операциях израильской армии.
Абусаад, указывая на то, что Palantir объединяет данные, собранные с различных платформ, и использует их в процессах целеуказания, сказал: «Palantir, по сути, превращает искусственный интеллект в оружие и использует анализ данных для принятия смертельных решений."
Абусаад отметил следующие слова о применении этой технологии в ходе геноцида в Газе:
"Palantir обеспечивает доступ к данным социальных сетей в Газе. Израиль собирает данные из сообщений WhatsApp, телефонных разговоров и приложений для определения местоположения, принадлежащих палестинцам. Эти данные объединяются и, например, интегрируются с беспилотным летательным аппаратом, который затем направляется в определённый район Газы, что позволяет наносить удары по людям."
Абоусаад, указывая на то, что военные власти могут уклоняться от ответственности, приписывая решения о нанесении ударов технологиям, сказал: «Ещё одним опасным применением Palantir является то, что он служит щитом, защищающим правительство США и Израиль от юридической ответственности."
"(Программное обеспечение, разработанное Palantir) предназначено для наблюдения, ведения войны и убийства"
Абусаад сообщил, что в системах искусственного интеллекта, таких как «Lavender» и «Where’s Daddy», разработанных израильской армией и интенсивно используемых для обнаружения целей в Газе, используется технологическая инфраструктура, предоставленная компанией Palantir.
Отметив, что система Maven, используемая и Пентагоном, ускоряет процессы обнаружения целей и наблюдения, Абусаад сказал: «Услуги, предоставляемые Palantir Пентагону, были использованы в недавних атаках США и Израиля против Ирана. Ранее технологии Palantir использовались и в атаках, совершённых с применением пейджеров в Ливане." сказал он.
«Я даже не решаюсь называть эти системы программным обеспечением, потому что они явно разработаны для целей слежки, ведения войны и убийства." — сказал Абусаад, отметив, что израильская армия также использует эти системы в проводимых на оккупированном Западном берегу арестах и операциях.

Эксперт по управлению искусственным интеллектом из Стокгольмского международного института исследования проблем мира (SIPRI) Лаура Бруун также отметила, что интеграция искусственного интеллекта в конфликтные ситуации существенно меняет характер войны с точки зрения скорости и масштаба, и это особенно заметно в процессах целеуказания.
Бруун, отмечая, что использование искусственного интеллекта в качестве инструмента массового наблюдения несёт серьёзные риски с точки зрения прав человека и нарушает право на неприкосновенность частной жизни, заявил, что такие услуги, которые компании, подобные Palantir, предлагают государствам, размывают границу между гражданскими и военными инструментами.
Отметив, что использование искусственного интеллекта в зонах конфликтов создаёт риски, отличные от проблем, возникающих по вине человека, Бруун подчеркнул, что существующие исследования указывают на то, что интеграция этой технологии на поле боя может увеличить вероятность большего числа ошибок и рисков.
Бруун заявил, что ответственность за ошибки, которые искусственный интеллект может допустить в войне, особенно в процессах целеуказания, лежит на государствах, и что в случае, если они не предотвратят сбои в системе, государства могут быть привлечены к ответственности.
Брюн подчеркнул, что выявить, вызваны ли проблемы на поле боя искусственным интеллектом, чрезвычайно сложно, и сказал, что из‑за абстрактной природы этой технологии становится трудно определить источник ошибки.
"В настоящее время до сих пор точно не определено, что государство должно делать на практике в отношении законного и ответственного использования искусственного интеллекта." он сказал.ного интеллекта в зонах конфликтов создаёт риски, отличные от проблем, возникающих по вине человека, Бруун подчеркнул, что существующие исследования указывают на то, что интеграция этой технологии на поле боя может увеличить вероятность большего числа ошибок и рисков.
Бруун заявил, что ответственность за ошибки, которые искусственный интеллект может допустить в войне, особенно в процессах целеуказания, лежит на государствах, и что в случае, если они не предотвратят сбои в системе, государства могут быть привлечены к ответственности.
Брюн подчеркнул, что выявить, вызваны ли проблемы на поле боя искусственным интеллектом, чрезвычайно сложно, и сказал, что из‑за абстрактной природы этой технологии становится трудно определить источник ошибки.
"В настоящее время до сих пор точно не определено, что государство должно делать на практике в отношении законного и ответственного использования искусственного интеллекта." он сказал.






