med-mastodon.com is one of the many independent Mastodon servers you can use to participate in the fediverse.
Medical community on Mastodon

Administered by:

Server stats:

415
active users

#lavender

3 posts3 participants0 posts today
Replied in thread

#AidWorkers as #Israel #Lavender #KI targets? 😔

Video Shows Aid Workers Killed in Gaza Under Gunfire Barrage, With Ambulance Lights On

"The U.N. has said Israel killed the workers. The video appears to contradict Israel’s version of events, which said the vehicles were “advancing suspiciously” without headlights or emergency signals.

A video, discovered on the cellphone of a paramedic who was found along with 14 other aid workers..."
nytimes.com/2025/04/04/world/m

The New York Times · Video Shows Aid Workers Killed in Gaza Under Gunfire Barrage, With Ambulance Lights OnBy Farnaz Fassihi

youtube.com/shorts/4FFQ926B1P8

Toxic masculinity is really out there ruining it for everyone...

Storytime:

I was busy doing my job when two ladies came into the library. They looked like sisters and I thought they probably were.

One of them came up to ask for help locating a certain book. While I was searching the catalog, one picked up a book from the Most Wanted, "The Lies He Told Me" and waggled it towards the other who said, "Girl, I could've written that!" The women then told me they'd once been married to the same guy and were now besties.

First woman: "I'm the first wife..."

Second woman: "And I'm the third, there was one in between."

Me: "Wow, when they start to form a club..."

Them: "Yeah, there was a second, but we don't want her in our club."

I gave them their info and wished them a great day together.

"Manly" men, let's do better, ok?

#ToxicMasculinity #Lavender #ExWives #Friendships > #RomanceDrama

Replied in thread
Du meinst vermutlich #Lavender? Das ist vor allem ein Zielerfassungssystem:
(…) So hat die Armee beispielsweise ein Programm namens Lavender eingesetzt, um eine „Tötungsliste“ von Zehntausenden Palästinensern zu erstellen, die von der KI belastet wurden, weil sie Merkmale aufwiesen, die sie mit der Zugehörigkeit zu einer militanten Gruppe in Verbindung bringen sollte.

Die Armee bombardierte dann viele dieser Personen – in der Regel während sie zu Hause bei ihren Familien waren –, obwohl bekannt war, dass das Programm eine Fehlerquote von 10 Prozent aufwies. Quellen zufolge diente die menschliche Aufsicht über den Tötungsprozess lediglich als „Absegnung“, und die Soldaten behandelten die Ergebnisse von Lavender „so, als wäre es eine menschliche Entscheidung“.

Bei dem neuen System geht es um eine ziemlich krasse Kategorisierung von Menschen und Vorhersage möglicher Handlungen aufgrund von Sprach- und Verhaltensmustern. @Sofie_unlabeled @972mag @palestine @israel

Das +972Magazine steigt unerschrocken ins Dunkel KI-getriebener Kriegsführung hinab. Nachdem sie schon #Palantir|s System #Lavender enthüllt haben, sind jetzt #Sprachmodelle dran, die aus der Masse abgehörter Kommunikation automatisiert Listen derer erstellen, die als nächstes verhaftet werden sollen. Und wenn das System mal wieder "halluziniert"? Darüber hat man als Betroffener dann ganz viel Zeit nachzudenken. Oder auch nie wieder.

972mag.com/israeli-intelligenc

+972 Magazine · Israel is building a ChatGPT-like tool weaponizing surveillance of PalestiniansThe Israeli army is developing an AI language model using millions of intercepted conversations between Palestinians, accelerating incrimination and arrest.