Venezuela

  • 95 Respostas
  • 7890 Visualizações
*

Duarte

  • Investigador
  • *****
  • 7310
  • Recebeu: 1454 vez(es)
  • Enviou: 3396 vez(es)
  • +3946/-1823
Re: Venezuela
« Responder #90 em: Janeiro 10, 2026, 04:44:45 am »


Today is a good day to remember that the reward was doubled to 50 million dollars in August 2025 by the Trump administration...

E daí? Se os democratas são maus pelos 25M, os MAGAtrasados são o quê com 50M? 

"Money talks and bullshit walks."
Quem sabe se a Delcy não é que vai receber os 50M?
« Última modificação: Janeiro 10, 2026, 06:49:55 pm por Duarte »
слава Україна!
“Putin’s failing Ukraine invasion proves Russia is no superpower".
"Every country has its own Mafia. In Russia the Mafia has its own country."
"Even the dumbest among us can see the writing on the wall for Putin"
 

*

Duarte

  • Investigador
  • *****
  • 7310
  • Recebeu: 1454 vez(es)
  • Enviou: 3396 vez(es)
  • +3946/-1823
Re: Venezuela
« Responder #91 em: Janeiro 10, 2026, 07:53:46 am »
слава Україна!
“Putin’s failing Ukraine invasion proves Russia is no superpower".
"Every country has its own Mafia. In Russia the Mafia has its own country."
"Even the dumbest among us can see the writing on the wall for Putin"
 

*

Duarte

  • Investigador
  • *****
  • 7310
  • Recebeu: 1454 vez(es)
  • Enviou: 3396 vez(es)
  • +3946/-1823
Re: Venezuela
« Responder #92 em: Janeiro 10, 2026, 09:19:57 pm »
Are Venezuela's S-300VM, Buk-M2 and JY-27 missiles outclassed by American capabilities or by flawed implementation?

https://meta-defense.fr/en/2026/01/07/s-300vm-jy-27a-vs-us-air-forces/
слава Україна!
“Putin’s failing Ukraine invasion proves Russia is no superpower".
"Every country has its own Mafia. In Russia the Mafia has its own country."
"Even the dumbest among us can see the writing on the wall for Putin"
 

*

Duarte

  • Investigador
  • *****
  • 7310
  • Recebeu: 1454 vez(es)
  • Enviou: 3396 vez(es)
  • +3946/-1823
Re: Venezuela
« Responder #93 em: Janeiro 12, 2026, 03:26:10 pm »
Claim of US Sonic Weapon Use in Venezuela Gains Attention After Leavitt Post

https://thedefensepost.com/2026/01/12/us-sonic-weapon-venezuela/
слава Україна!
“Putin’s failing Ukraine invasion proves Russia is no superpower".
"Every country has its own Mafia. In Russia the Mafia has its own country."
"Even the dumbest among us can see the writing on the wall for Putin"
 

*

HSMW

  • Moderador Global
  • *****
  • 13159
  • Recebeu: 3469 vez(es)
  • Enviou: 8029 vez(es)
  • +1448/-2777
    • http://youtube.com/HSMW
Re: Venezuela
« Responder #94 em: Janeiro 12, 2026, 09:35:58 pm »

Full Breakdown of Maduro Raid - NEW Satellite Imagery Revealing Extent of Damage

Análise pelo Covert Cabal.
« Última modificação: Janeiro 12, 2026, 09:36:13 pm por HSMW »
https://www.youtube.com/user/HSMW/videos

"Tudo pela Nação, nada contra a Nação."
 

*

Viajante

  • Investigador
  • *****
  • 4848
  • Recebeu: 3143 vez(es)
  • Enviou: 1671 vez(es)
  • +8225/-6662
Re: Venezuela
« Responder #95 em: Fevereiro 16, 2026, 02:23:12 pm »
xército dos EUA usa a IA Claude para atacar a Venezuela e capturar Maduro

A guerra mudou! Segundo o Wall Street Journal, o Claude, a IA da Anthropic, participou na operação militar norte-americana contra Nicolás Maduro, em Caracas. Esta terá sido a primeira vez que uma IA comercial é usada num ataque classificado. Estará aberta a caixa de Pandora?



    Não podemos comentar a utilização do Claude, nem de qualquer outro modelo de IA, no âmbito de uma operação específica, classificada ou não.

Declarou um porta-voz da Anthropic. O Departamento de Defesa também recusou comentar.

Todos mantêm silêncio, mas o Claude terá sido utilizado durante bombardeamentos destinados a capturar o antigo presidente venezuelano e a sua esposa. E foi a Palantir, empresa de Peter Thiel que equipa o exército norte-americano com software de análise há vinte anos, que terá tornado isso possível.

Ora, a política de utilização da Anthropic proíbe explicitamente três usos:

    facilitar a violência;
    desenvolver armas;
    conduzir operações de vigilância.

Um ataque militar com bombardeamentos preenche, pelo menos, dois desses três critérios.



Um contrato de 200 milhões que contorna a política pública

A Anthropic assinou um contrato de 200 milhões de dólares com o Departamento de Defesa. Dario Amodei, o diretor-executivo, tinha expressado publicamente reservas quanto ao uso da IA em operações letais autónomas e na vigilância interna. Dois pontos de discórdia nas negociações.

Uma cláusula permite à Anthropic “adaptar as restrições de utilização” para certos clientes governamentais se as “garantias contratuais forem suficientes”.

O que a política proíbe ao público em geral, um contrato militar pode autorizar em privado. Este duplo padrão explica como o Claude pode ter participado numa operação militar letal.

Pete Hegseth, secretário da Defesa, anunciou em janeiro, durante o anúncio de uma parceria com a xAI que acabou por não avançar, que o Pentágono não iria trabalhar com “modelos de IA que o impeçam de fazer a guerra”. A observação visava diretamente a Anthropic.

A administração Trump acusa a empresa de travar a sua estratégia de desregulação ao pedir salvaguardas e limites à exportação de chips. A Anthropic terá ultrapassado essa linha com o contrato de 200 milhões. Ainda assim, ninguém sabe exatamente onde começa e onde termina o uso do Claude nesta operação.



Síntese de informação ou ataque direto? A ambiguidade técnica total

O Wall Street Journal refere que “as ferramentas de IA podem servir para muitas aplicações, desde a síntese de documentos até ao controlo de drones autónomos”. Entre esses dois extremos, há uma enorme diferença. Analisar relatórios de informação para preparar uma missão não implica as mesmas responsabilidades que calcular trajetórias de ataque ou identificar alvos em tempo real. A Anthropic recusa detalhar o papel exato do Claude.

Esta opacidade protege a empresa juridicamente: enquanto ninguém souber exatamente o que o Claude fez, ninguém pode provar que uma linha foi ultrapassada.

A Anthropic construiu toda a sua reputação em torno da segurança da IA, da transparência e de limites claros. Dario Amodei publicou vários artigos a defender mais regulação do que os seus concorrentes. A OpenAI e a Google, por exemplo, juntaram-se recentemente a uma plataforma militar usada por três milhões de pessoas. O ChatGPT e o Gemini são ali utilizados para análise de documentos, geração de relatórios e apoio à investigação. Usos declarados, documentados e não letais.



A Anthropic vende agora o Claude ao exército norte-americano sem dizer o que faz exatamente. Onde começa o uso letal de uma IA? Quando analisa dados? Quando recomenda um alvo? Quando calcula trajetórias?

O contrato de 200 milhões permite “adaptar as restrições”. Mas “adaptar” não define nada de concreto. A administração Trump chegou a ponderar cancelar o contrato se a Anthropic continuasse a bloquear certos usos, segundo o Wall Street Journal. A empresa mantém que qualquer utilização deve respeitar as suas políticas.

As duas partes comunicam os seus princípios, mas ninguém diz o que realmente aconteceu em Caracas. Esta ambiguidade técnica permite à Anthropic manter um duplo discurso: vender ao exército e, ao mesmo tempo, afirmar que cumpre as suas regras éticas.

https://pplware.sapo.pt/inteligencia-artificial/exercito-dos-eua-usar-a-ia-claude-para-atacar-a-venezuela-e-capturar-maduro/