Hi-Fi: Fiio bringt Tastatur mit eingebautem DAC

Fiios Tastatur KB3 Hifi hat nicht nur hot-swappable Gateron-Switches, sondern auch einen eingebauten Digital-Analog-Wandler, inklusive Balanced-Output. (Tastatur, Eingabegerät)

Fiios Tastatur KB3 Hifi hat nicht nur hot-swappable Gateron-Switches, sondern auch einen eingebauten Digital-Analog-Wandler, inklusive Balanced-Output. (Tastatur, Eingabegerät)

Chandrayaan: Indiens große Mondpläne

Probenrückführung, eine Raumstation, bemannte Mondlandung und eine Basis auf dem Mond: Indien will seine langfristige Präsenz im Weltall ausbauen. (Mondlandung, Raumfahrt)

Probenrückführung, eine Raumstation, bemannte Mondlandung und eine Basis auf dem Mond: Indien will seine langfristige Präsenz im Weltall ausbauen. (Mondlandung, Raumfahrt)

Elektroauto: Hyundai präsentiert riesigen Ioniq 9

Hyundai hat mit dem Ioniq 9 ein Elektrofahrzeug vorhgestellt, das mit seinen imposanten Ausmaßen von 5,06 Metern Länge ein Novum für den Hersteller darstellt. (Hyundai, Elektroauto)

Hyundai hat mit dem Ioniq 9 ein Elektrofahrzeug vorhgestellt, das mit seinen imposanten Ausmaßen von 5,06 Metern Länge ein Novum für den Hersteller darstellt. (Hyundai, Elektroauto)

Child safety org launches AI model trained on real child sex abuse images

AI will make it harder to spread CSAM online, child safety org says.

For years, hashing technology has made it possible for platforms to automatically detect known child sexual abuse materials (CSAM) to stop kids from being retraumatized online. However, rapidly detecting new or unknown CSAM remained a bigger challenge for platforms as new victims continued to be victimized. Now, AI may be ready to change that.

Today, a prominent child safety organization, Thorn, in partnership with a leading cloud-based AI solutions provider, Hive, announced the release of an AI model designed to flag unknown CSAM at upload. It's the earliest AI technology striving to expose unreported CSAM at scale.

An expansion of Thorn's CSAM detection tool, Safer, the new "Predict" feature uses "advanced machine learning (ML) classification models" to "detect new or previously unreported CSAM and child sexual exploitation behavior (CSE), generating a risk score to make human decisions easier and faster."

Read full article

Comments