[ad_1]
De récentes enquêtes menées par deux médias israéliens, +972 Journal et Native Name, ont jeté une lumière crue sur l’utilisation controversée de l’intelligence artificielle (IA) par l’armée israélienne dans la bande de Gaza. Ces révélations indiquent que le système baptisé “Lavender” aurait été utilisé pour identifier des cibles dans cette zone densément peuplée, entraînant un nombre alarmant de victimes civiles.
Cependant, ce qui soulève un tollé, c’est le nombre alarmant de victimes civiles qui ont été signalées à la suite de son utilisation. Les enquêtes indiquent que le système “Lavender” n’aurait pas fait la distinction entre les combattants et les civils, ce qui a conduit à un nombre disproportionné de victimes parmi les non-combattants.
L’utilisation de l’IA dans les opérations militaires est un sujet de débat houleux. De nombreux consultants et organisations de défense des droits de l’homme ont exprimé leurs préoccupations quant à l’utilization de ces applied sciences, arguant qu’elles pourraient violer les lois internationales de la guerre et les principes humanitaires. Les résultats des enquêtes de +972 Journal et Native Name viennent renforcer ces préoccupations, en montrant remark l’IA peut être utilisée de manière irresponsable et avec des conséquences dévastatrices.
Il est essential de souligner que ces allégations sont basées sur les enquêtes menées par ces deux médias israéliens, et qu’elles n’ont pas encore été vérifiées de manière indépendante. Cependant, elles soulèvent des questions cruciales sur l’utilisation de l’IA dans la guerre et sur la nécessité d’une réglementation plus stricte pour prévenir les abus.
La Réaction du Secrétaire Général de l’ONU
Ces accusations ont suscité une réaction vive de la half d’Antonio Guterres, le Secrétaire Général des Nations Unies, qui s’est dit “profondément perturbé” par ces informations. Dans une déclaration à la presse, Guterres a souligné l’inquiétude majeure que représente l’attribution de décisions de vie ou de mort à “l’algorithme froid” de l’IA, surtout lorsqu’il s’agit de frappes dans des zones résidentielles où les risques pour les civils sont particulièrement élevés.
Lavender : Un Programme Contesté
Le programme Lavender, tel que décrit par les enquêtes, aurait joué un rôle essential dans les stratégies de bombardement de l’armée israélienne, avec les officiers militaires traitant les sélections de cibles de l’IA “comme si c’était une décision humaine”. Une telle dépendance à la technologie dans le contexte du conflit pose des questions éthiques et juridiques significatives, notamment en termes de responsabilité et de distinction entre combattants et non-combattants.
Des Décisions Lourdes de Conséquences
Selon les sources citées dans les enquêtes, le programme aurait permis l’élimination de membres “junior” du Hamas, avec une tolérance de 15 à 20 victimes civiles comme “dommages collatéraux” pour chaque cible. Pour les commandants du mouvement, ce ratio s’élèverait même à 100 civils. Ces révélations, si elles étaient confirmées, marqueraient une escalade inquiétante dans la manière dont les décisions de frappe sont prises, soulignant un besoin pressing de réévaluation et de transparence.
La Place de l’Armée Israélienne
Face à ces graves accusations, l’armée israélienne a répondu en niant l’utilisation d’un système d’IA pour identifier spécifiquement des “opérateurs terroristes” ou pour prédire l’appartenance terroriste d’individus, reconnaissant toutefois l’existence d’une “base de données”. Cette réponse laisse entrevoir la complexité de l’utilization de applied sciences avancées dans les opérations militaires et la nécessité d’un débat approfondi sur leurs implication
[ad_2]
Source link