EU-Fediverse

Die Europäische Union beweist wieder einmal ihr Talent für Lösungen in allerletzter Sekunde und kündigt die Übernahme der vom Europäischen Datenschutzbeauftragten befristet bis zum 18. Mai 2024 betriebenen Mastodon-Instanz durch die Europäische Kommission an. Selbstverständlich nutzt die Kommission die gute Gelegenheit, von der vergleichsweise eingängigen Domain social.network.europa.eu auf die EU-tauglichere ec.social-network.europa.eu zu wechseln.

Empfehlungsslop

Ich möchte mich nicht über die große Bandbreite der LinkedIn-Jobvorschläge beklagen, aber dass mir nahegelegt wird, ich könne a fit for ALDI SÜD’s Mitarbeiter Warenverräumung (m/w/d) sein, und am selben Tag diverse Geschäftsführer- und CxO-Rollen angeboten werden, deutet auf eine fortschreitende KI-Unterstützung des Empfehlungsalgorithmus hin. Vielleicht ist aber auch der Fachkräftemangel mittlerweile so massiv, dass der hierarchische deutsche Arbeitsmarkt schlagartig fluider geworden ist.

Hoch die internationale Solidarität

In unserer auf Konkurrenz ausgerichteten Wirtschaftsordnung ist Solidarität zwischen Unternehmen ein besonders schönes und herzerwärmendes Zeichen: Um die Schärfe aus der Diskussion um die Sicherheit von Microsofts Cloud-Produkten zu nehmen, löscht Google rasch einen größeren Kunden-Account, und Meta stellt sein Office-Konkurrenzprodukt gleich ganz ein.

Endspiel

Die diesjährige Google I/O läutet offiziell das Endspiel (aka managed decline) für das Web ein: Googles Suchmaschine soll künftig primär AI slop ausliefern, und ich würde mich nicht darauf verlassen, dass der parallel eingeführte Filter zur Anzeige echter Web-Links lange Bestand hat – zumal offen ist, wie lange es das menschengemachte Web noch gibt.

Untergangswarteschlange 6

Dass die Entwicklung künstlicher Intelligenz eher nicht in ein Terminator- oder Matrix-Szenario mündet, sondern lediglich den Vorsprung des apokalyptischen Frontrunners weiter ausbaut, ist aus cineastischer Sicht etwas enttäuschend, aber immerhin bleibt die beliebte globale Klassengesellschaft ohne KI-Machtübernahme bis zum bitteren Ende erhalten.

Abschied vom Gilb

Die Deutsche Post AG schaltet den unprofitablen (weil kostenfreien) Dienst Digitale Kopie für Briefpost ab, behält aber den funktional sehr ähnlichen (aber kostenpflichtigen) Dienst Postscan bei. Ebenfalls beibehalten wird die kostenfreie, auf einen Scan des Briefumschlags beschränkte Briefankündigung, die zum Zeitpunkt der Meldung aus technischen Gründen nicht verfügbar ist. Die Privatisierung hat aus der Transportsparte des unbeliebten Gilb ganz offensichtlich ein Unternehmen mit Sinn für absurden Humor gemacht.

Misdirected Request

Mein Netzanbieter hat gestern angekündigt, mein heimisches WLAN durch ständige Analyse zu verbessern, und bestätigt mir heute gemäß §57 Abs. 3 TKG, dass ich mich vertraglich nicht verbessern kann. Wenn das eine Charme-Offensive anlässlich des laufenden Klageverfahrens sein sollte, ist sie nicht gut auf mich abgestimmt.

Prinzipiensicher

Während 1Password sich schrittweise an das Vertrauensniveau von LastPass heranarbeitet, macht ein Package-Maintainer keine Kompromisse

Julian Andreas Klode, Entwickler bei Debian und Ubuntu sowie Betreuer des Passwortmanagers KeePassXC bei Debian reagierte kürzlich auf einen Bug-Report aus dem Jahr 2020 und entfernte aus Sicherheitsgründen alle Netzwerkdienste und die Interprozesskommunikation aus Version 2.7.7+dfsg.1-2 des Pakets keepassxc, das sich derzeit in Debian Unstable befindet.

– was wiederum Verschwörungstheorien Nahrung gibt, denen das KeePassXC-Team entgegentritt:

Following the recent discussion around the Debian decision to ship KeePassXC without any of its optional modules, we've seen some extreme misconceptions floating around the internet regarding what the WITH_XC_NETWORKING=OFF compile flag actually does.

Let us be clear: KeePassXC does NOT randomly connect to the internet in the background, regardless of whether you build with the flag on or off. Claims to the contrary of KeePassXC surfing in the background or calling home are false.

Hide and Crawl

Eine Alternative zur täglichen Ergänzung der robots.txt in der vagen Hoffnung, sie möge respektiert werden, und zur Delegation der Futterverwaltung an einen hungrigen Bären ist Subversion:

Moving all my web content into robots.txt files on the presumption that they’ll be ignored by crawler

Crawl Control as a Service

Auf die Unvermeidlichkeit einer sehr teuren Technologie mit überschaubarem Nutzwert

When I boil it down, I find my feelings about AI are actually pretty similar to my feelings about blockchains: they do a poor job of much of what people try to do with them, they can't do the things their creators claim they one day might, and many of the things they are well suited to do may not be altogether that beneficial. And while I do think that AI tools are more broadly useful than blockchains, they also come with similarly monstrous costs.

– kann man widerständig, unterwürfig oder profitorientiert reagieren. Stack Overflow, Quora, Reddit und Auttomattic haben sich für die dritte Option entschieden und müssen nun mit Urheberrevolten und Ferndiagnosen ihres Geisteszustands umgehen (mehr oder weniger professionell).

Wenn man keine großen Datenmengen zu verkaufen hat und nicht einmal zu einer wirkungslosen robots.txt-Geste in der Lage ist, bietet OpenAI einen gut gekämmten Bock für die Pflege der Internet-Gärten an:

Decades ago, the robots.txt standard was introduced and voluntarily adopted by the Internet ecosystem for web publishers to indicate what portions of websites web crawlers could access.

Last summer, OpenAI pioneered the use of web crawler permissions for AI, enabling web publishers to express their preferences about the use of their content in AI. We take these signals into account each time we train a new model.

That said, we understand these are incomplete solutions, as many creators do not control websites where their content may appear, and content is often quoted, reviewed, remixed, reposted and used as inspiration across multiple domains. We need an efficient, scalable solution for content owners to express their preferences about the use of their content in AI systems.

OpenAI is developing Media Manager, a tool that will enable creators and content owners to tell us what they own and specify how they want their works to be included or excluded from machine learning research and training. Over time, we plan to introduce additional choices and features.

This will require cutting-edge machine learning research to build a first-ever tool of its kind to help us identify copyrighted text, images, audio, and video across multiple sources and reflect creator preferences.

We’re collaborating with creators, content owners, and regulators as we develop Media Manager. Our goal is to have the tool in place by 2025, and we hope it will set a standard across the AI industry.