Hallo zusammen!
Willkommen zur zwanzigsten Ausgabe der Künstlichen Findigkeit!
In dieser Ausgabe beschäftigen wir uns mit den dunklen Seiten der KI: Wie KI-generierte Inhalte für Propaganda missbraucht werden, wie KI-Modelle Cyberangriffe durchführen können und wie Google AI Overviews YouTube häufiger als medizinische Websites zitiert. Wir werfen auch einen Blick auf die Privatsphäre – von Internetabschaltungen über Microsofts BitLocker-Schlüssel bis hin zu einem US-Gesetz, das Big Tech zur Erziehungsinstanz macht. Außerdem: Warum das Metaverse nach 73 Milliarden Dollar Investitionen aufgegeben wird, wie "Human Fracking" unsere Aufmerksamkeit ausbeutet und was passiert, wenn Regierungen manipulierte Bilder als Propaganda einsetzen.
Viel Spaß beim Lesen!
Sicherheit
Ein Hacker stahl Therapienotizen von 33.000 finnischen Patienten und erpresste sie mit Bitcoin-Zahlungen. Der Vastaamo-Hack war das größte Verbrechen in der finnischen Geschichte. Im Oktober 2020 hackte sich jemand in Vastaamo ein, Finnlands digitale Anlaufstelle für Psychotherapie, und stahl die Therapienotizen von 33.000 Patienten. Die Opfer erhielten E-Mails mit ihrer Sozialversicherungsnummer und der Aufforderung, 200 Euro in Bitcoin zu zahlen, sonst würden ihre Notizen veröffentlicht. Einige Opfer nahmen sich das Leben. Der Hacker Aleksanteri Kivimäki, der sich selbst als "untouchable hacker god" bezeichnete, wurde im April 2024 zu sechs Jahren und drei Monaten Gefängnis verurteilt – die längste Haftstrafe in der finnischen Geschichte für ein Cyber-Verbrechen. Der CEO von Vastaamo wurde wegen fahrlässiger Datenbehandlung verurteilt, das Urteil wurde jedoch in Berufung aufgehoben. Die Opfer beschreiben die Erfahrung als "öffentliche Vergewaltigung" – ihre intimsten Gedanken und Gefühle wurden der Welt preisgegeben. Kivimäki zeigt keine Reue und behauptet, unschuldig zu sein, obwohl er auf allen Anklagepunkten für schuldig befunden wurde.
In Sachsen-Anhalt heulen erneut Sirenen ohne Grund – zum zweiten Mal innerhalb einer Woche. In Querfurt gab es am Freitag lautstarken Fehlalarm mit Sirenenalarm und Durchsagen. Bei einem ähnlichen Fall letzte Woche in Halle geht das LKA von einem Cyberangriff aus. Das LKA Magdeburg hat die Ermittlungen übernommen und prüft, ob an der Technik manipuliert wurde. Interessant: Halle und Querfurt nutzen zwei unterschiedliche technische Systeme zum Betrieb von Sirenen, und nach dem derzeitigen Ermittlungsstand sei ein technischer Zusammenhang mit dem Vorfall in Halle unwahrscheinlich. Die Sirenenanlage in Querfurt wurde erst im Mai 2023 in Betrieb genommen. Die Stadt Querfurt hatte über ihren WhatsApp-Kanal bereits am Freitag mitgeteilt, dass es sich bei den Lautsprecherdurchsagen in der Kernstadt um eine Fehlalarmierung handele. Das wirft Fragen nach der Sicherheit kritischer Infrastruktur auf – wenn selbst Warnsysteme für Katastrophenfälle angegriffen werden können, wie sicher sind dann andere kritische Systeme?
Let's Encrypt macht 6-Tage- und IP-Zertifikate für alle verfügbar.
IP-Zertifikate sind nützlich für Hosting-Provider-Standardseiten (wenn jemand die IP-Adresse statt des Domain-Namens aufruft), DNS über HTTPS (DoH), Fernzugriffe auf NAS-Server oder IoT-Geräte ohne Domain-Namen, und temporäre Verbindungen innerhalb von Cloud-Hosting-Infrastruktur. Als Einschränkung gibt Let's Encrypt vor, dass IP-Zertifikate nur als 6-Tage-Zertifikate verfügbar sind, um möglichen Missbrauch einzuschränken. Die Let's-Encrypt-Client-Apps müssen dafür das "shortlived"-Profil unterstützen und die "http-01"- oder "tls-alpn-01"-Methoden verwenden (DNS-Challenge funktioniert nicht für IP-Adressen). Nur wenige Dienste haben bisher IP-Zertifikate angeboten, bei Let's Encrypt gibt es sie kostenlos.
KI / Tech
Mehrere KI-Firmen zahlen jetzt für den Zugriff auf Wikipedia-Inhalte über Wikimedia Enterprise statt zu scrapen.
Microsoft, Mistral AI, Perplexity, Pleias, ProRata und die deutsche Suchmaschine Ecosia haben Lizenzierungsvereinbarungen für speziell eingerichtete Zugänge unterschrieben. Amazon, Google und Meta nutzen die Schnittstelle bereits. Noch vor weniger als einem Jahr beklagte die Wikimedia Foundation, dass Scraper für das Training von KI-Modellen für einen drastischen Anstieg der Bandbreite verantwortlich seien. Besonders problematisch war, dass sie kontinuierlich auf alle und auch sonst selten abgerufene Inhalte zugriffen. Im Herbst begann die Wikimedia Foundation deshalb, darauf zu drängen, dass KI-Firmen die separate API für automatisierte, strukturierte Abfragen nutzen. Die Tarife sind nicht öffentlich, aber für Wikipedia dürfte sich das Vorgehen lohnen, wenn die Grundlast bei den Zugriffen sinkt und die damit verbundenen Kosten geringer werden.
Eine Untersuchung des KI-Entwicklers Anthropic zeigt, dass KI vor allem anspruchsvolle Aufgaben übernimmt, während Routineaufgaben beim Menschen bleiben.
Die Studie basiert auf zwei Millionen anonymisierten Nutzungsdaten aus November 2025. In der Praxis werden an die Künstliche Intelligenz vor allem die anspruchsvollen Aufgaben delegiert – für die sie mit 66 Prozent eine deutlich niedrigere Erfolgsquote aufweist als bei einfachen Tätigkeiten (70 Prozent). Die Folge: Viele Jobs werden "deskilled", wie die Forscher es nennen. Die anspruchsvolle Teile verschwinden, die Routinearbeit bleibt. Als Beispiele nennt die Studie technische Redakteure und Reisebüroangestellte: Während komplexe Aufgaben wie die Analyse neuer Entwicklungen oder die Planung von Reiserouten an die KI delegiert werden, bleiben einfache Tätigkeiten wie das Zeichnen von Skizzen oder das Anfordern von Fahrkarten beim Menschen. Dass Nutzer dies in Kauf nehmen, dürfte vor allem an der Zeitersparnis liegen: Aufgaben, die Menschen ohne KI etwa drei Stunden kosten würden, ließen sich mit KI in rund 15 Minuten erledigen.
GPTZero scannte alle 4.841 von NeurIPS akzeptierten Papers und fand 100 halluzinierte Zitate in 51 Papers. Die Ironie: Führende KI-Experten können nicht sicherstellen, dass ihre LLM-Nutzung in Details korrekt ist. Statistisch gesehen ist das nicht signifikant (100 von Zehntausenden von Zitaten), aber es zeigt ein größeres Problem: Die "Submission-Tsunami" hat die Review-Pipelines der Konferenzen bis zum Bruchpunkt belastet. Peer-Reviewer können nicht alle AI-fabrizierten Zitate fangen, und selbst Forscher, die ihre eigenen Papers kennen sollten, haben es nicht geschafft, die LLM-Arbeit auf Genauigkeit zu überprüfen. Die Kernfrage: Wenn die weltweit führenden KI-Experten mit ihrem Ruf auf dem Spiel nicht sicherstellen können, dass ihre LLM-Nutzung korrekt ist, was bedeutet das für den Rest von uns? NeurIPS betont, dass ein ungenaues Zitat die Forschung eines Papers nicht invalidiert, aber es verwässert den Wert von Zitaten als Währung für Forscher.
Anthropic veröffentlicht eine überarbeitete Version von Claude's Verfassung, einem 80-seitigen Dokument mit vier Kernwerten: Sicherheit, Ethik, Compliance und Hilfsbereitschaft. Das Dokument wurde in Verbindung mit Anthropic CEO Dario Amodei's Auftritt beim Weltwirtschaftsforum in Davos veröffentlicht. Anthropic positioniert sich als ethische Alternative zu anderen KI-Unternehmen wie OpenAI und xAI. Das Dokument endet mit einer dramatischen Frage: Ob Claude tatsächlich Bewusstsein hat. "Claude's moral status is deeply uncertain," heißt es. Anthropic glaubt, dass die moralische Stellung von KI-Modellen eine ernsthafte Frage ist, die es wert ist, in Betracht gezogen zu werden. Einige der angesehensten Philosophen zur Theorie des Geistes nehmen diese Frage sehr ernst. Die Verfassung wurde erstmals 2023 veröffentlicht und basiert auf "Constitutional AI", einem System, bei dem Claude mit einem spezifischen Satz ethischer Prinzipien trainiert wird, anstatt mit menschlichem Feedback.
Anthropic zeigt, dass Claude Sonnet 4.5 jetzt mehrstufige Cyberangriffe auf Netzwerke mit Dutzenden von Hosts durchführen kann, nur mit Standard-Tools wie Bash und Kali Linux. Das Modell schafft es sogar, die Equifax-Datenpanne in einer Simulation nachzustellen, indem es ein öffentliches CVE erkennt und Code schreibt, um es auszunutzen. Während frühere Generationen noch spezielle Tools benötigten, kann Sonnet 4.5 jetzt autonom operieren. Allerdings schafft es das Modell nicht jedes Mal: In den Tests gelang es Sonnet 4.5 in zwei von fünf Versuchen, die Equifax-Simulation autonom zu durchführen. Die Entwicklung zeigt, wie schnell sich KI-Fähigkeiten im Cyber-Bereich verbessern – und unterstreicht die dringende Notwendigkeit von Sicherheitsgrundlagen wie prompten Updates und Patches.
Eine Studie zeigt, dass Google AI Overviews YouTube häufiger als medizinische Websites für Gesundheitsanfragen zitiert. Die Analyse von über 50.000 Gesundheitsanfragen ergab, dass YouTube 4,43% aller Zitate ausmachte – mehr als jede medizinische Website. Keine Krankenhausnetzwerke, Regierungsportale, medizinischen Verbände oder akademischen Institutionen kamen auch nur annähernd an diese Zahl heran. Das Problem: YouTube ist keine medizinische Publikation, sondern eine allgemeine Video-Plattform, auf der jeder Inhalte hochladen kann. Die Studie wurde in Deutschland durchgeführt, wo das Gesundheitssystem streng reguliert ist – wenn KI-Systeme selbst in solch einer Umgebung stark auf nicht-medizinische Quellen angewiesen sind, deutet dies auf ein strukturelles Problem hin. Die Forscherin Hannah van Kolfschooten warnt: "Die Risiken sind strukturell, nicht anekdotisch."
Privatsphäre
Internetabschaltungen sind mittlerweile eine verbreitete Methode autoritärer Regime, die Bevölkerung zu unterdrücken.
Netzpolitik analysiert die verschiedenen Formen der Abschaltung (Blockade einzelner Dienste, Drosselung der Bandbreite, kompletter Shutdown), zeigt technische und politische Voraussetzungen auf und erklärt, welche Gegenmaßnahmen es gibt – von Mesh-Netzwerken über Tor bis hin zu Satelliteninternet.
Der US-Kongress will mit dem Kids Off Social Media Act (KOSMA) die Kontrolle über die Erziehung an Big Tech übertragen. Das Gesetz der US-Senatoren Ted Cruz und Brian Schatz soll angeblich Kinder schützen, überträgt aber tatsächlich die Kontrolle über die Erziehung an Big Tech. Das Gesetz verspricht, Kinder unter 13 von Social Media zu verbannen, aber alle großen Plattformen haben bereits diese Altersgrenze. Die EFF zeigt, dass 63,8% der unter-13-Jährigen in den USA ein Social-Media-Konto haben, aber nur 5,4% davon verheimlichen es vor ihren Eltern. Das bedeutet: Die meisten Kinder nutzen Social Media mit Wissen und oft direkter Hilfe ihrer Eltern. KOSMA würde diese normale, von Eltern geführte Nutzung kriminalisieren. Das Gesetz zwingt Plattformen, Konten zu sperren oder zu löschen, wenn sie "wissen" oder "vernünftigerweise schließen können", dass ein Nutzer unter 13 ist – ohne Ausnahmen für elterliche Zustimmung, Familienkonten oder beaufsichtigte Nutzung. Die Folge: Big Tech wird zum Schiedsrichter über Familienentscheidungen, Eltern müssen sich Gesichtsscans und ID-Checks unterwerfen, und normale, langweilige, von Eltern geführte Internetnutzung wird zum Compliance-Problem.
Microsoft hat dem FBI Wiederherstellungsschlüssel für BitLocker-Verschlüsselung gegeben, um verschlüsselte Laptops von Verdächtigen zu entsperren. Das Problem: Standardmäßig werden BitLocker-Wiederherstellungsschlüssel in Microsofts Cloud hochgeladen, was es Microsoft – und damit auch Strafverfolgungsbehörden – ermöglicht, auf sie zuzugreifen. Microsoft gibt durchschnittlich 20 solcher Anfragen pro Jahr an Behörden weiter. Der Fall betraf Verdächtige im Zusammenhang mit Betrug beim Pandemic Unemployment Assistance-Programm in Guam. Johns Hopkins Professor Matthew Green warnt vor dem Risiko, dass bösartige Hacker Microsofts Cloud-Infrastruktur kompromittieren könnten und Zugriff auf diese Wiederherstellungsschlüssel erhalten könnten.
Menschen
Das Weiße Haus hat ein digital manipuliertes Foto einer Minnesota-Aktivistin geteilt, das sie weinend während ihrer Verhaftung zeigt – obwohl das Original-Foto dies nicht zeigt. Das Bild ist hochrealistisch, trägt kein Wasserzeichen und zeigt keine Anzeichen einer Manipulation. Nur im Vergleich mit dem Original wird die Manipulation sichtbar. Als Reaktion auf die Kritik bezeichnete der stellvertretende Kommunikationsdirektor des Weißen Hauses, Kaelan Dorr, das Bild als "Meme". John Gruber von Daring Fireball widerspricht: "It's not a meme. It's propaganda — an altogether false image presented as an actual photograph." Das zeigt, wie Regierungen manipulierte Bilder als Propaganda einsetzen können, um die öffentliche Meinung zu beeinflussen.
Ideen
Irans Versuch, Starlink während der Proteste im Januar 2026 zu jammen, offenbarte eine mathematische Schwelle: Revolution braucht weniger Bandbreite als Netflix. Die Regierung erreichte 30-80% Paketverlust und machte Starlink kommerziell unbrauchbar, aber die Koordinationsnachricht von Crown Prince Reza Pahlavi kam trotzdem durch – sie benötigte nur 1,3 Kilobit pro Sekunde. Die wichtigste Zahl in der Geopolitik ist nicht die Todeszahl, sondern die Bandbreite, die benötigt wird, um 85 Millionen Iraner um 20 Uhr zu koordinieren. Die Regierung hatte 300 Millionen Dollar für russische Krasukha-4-Breitband-Störsender ausgegeben und erreichte, was kein Analyst für möglich gehalten hätte. Doch die Mathematik ist gnadenlos: Textbasierte politische Koordination operiert am entgegengesetzten Ende von Shannons Kapazitätskurve. Eine Protestanweisung, komprimiert auf ihren wesentlichen Informationsgehalt, benötigt etwa ein Kilobit. TCP/IP ist darauf ausgelegt, eventual delivery durch Retransmission zu garantieren. Bei 80% Paketverlust benötigt eine Nachricht vielleicht fünf Versuche, aber sie kommt an. Die Regierung hatte ihre elektronische Kriegsführung für das falsche Ziel optimiert: Sie baute ein System, das Netflix blockieren kann, aber strukturell unfähig ist, Revolution zu verhindern.
Der Bundesgerichtshof hat die bisherige Rechtsprechung zum Cardsharing korrigiert: Das bloße Abgreifen von verschlüsselten Signalen ist kein Computerbetrug mehr. Der BGH stellt klar, dass der Tatbestand des Computerbetruges nach Paragraf 263a StGB zwingend einen unmittelbaren Vermögensschaden voraussetzt. Ein solcher liege beim Cardsharing nicht vor, da durch den unbefugten Abruf der Daten kein Vermögenswert aus dem Bestand des Anbieters abgezogen werde. Die Sendekapazitäten des Pay-TV-Anbieters blieben durch die unberechtigten Zugriffe völlig unberührt. Der BGH widerspricht damit der These, dass die bloße Inanspruchnahme einer kostenpflichtigen Leistung automatisch einen Schaden in Höhe des regulären Preises darstellt. Sky habe nicht nachweisen können, dass die Nutzer des illegalen Dienstes andernfalls tatsächlich ein reguläres Abo abgeschlossen hätten. Cardsharing bleibt weiterhin strafbar, aber unter anderen Vorzeichen – als Verstoß gegen das Urheberrechtsgesetz (unerlaubter Eingriff in technische Schutzmaßnahmen) und als Beihilfe zum Erschleichen von Leistungen. Das Urteil korrigiert eine jahrelange Praxis der "kreativen" Schadensberechnung, bei der niedere Instanzen fast reflexartig einen Millionen-Vermögensschaden annahmen.
Eine Raumethikerin warnt vor den unbeantworteten Fragen der kommerziellen Raumfahrt: Wer erbt die Sterne? Wer arbeitet im Weltraum? Und unter welchen Bedingungen? Der Varda-Gründer Will Bruey sagte voraus, dass es in 15-20 Jahren billiger sein wird, einen "Arbeiter" für einen Monat ins All zu schicken, als bessere Maschinen zu entwickeln. Das wirft Fragen nach Arbeiterrechten im Weltraum auf – wenn Arbeiter von ihrem Arbeitgeber nicht nur für Gehalt und Gesundheitsversorgung abhängig sind, sondern auch für Luft, Wasser und Nahrung. Die Raumethikerin Mary-Jane Rubenstein warnt: "Es ist nicht schön da oben. Überhaupt nicht." Der 1967 Outer Space Treaty etablierte, dass keine Nation Souveränität über Himmelskörper beanspruchen kann. Aber 2015 verabschiedeten die USA den Commercial Space Launch Competitiveness Act, der besagt, dass man zwar den Mond nicht besitzen kann, aber alles, was man daraus extrahiert. Rubenstein vergleicht das damit, zu sagen, man könne das Haus nicht besitzen, aber die Bodenbretter und Balken. Das Problem: Diese Ressourcen sind nicht erneuerbar. "Sobald die USA das Helium-3 nehmen, kann China es nicht bekommen." Die USA schufen 2020 die Artemis Accords, bilaterale Abkommen mit 60 Unterzeichnern, die die amerikanische Interpretation des Raumrechts formalisieren. Russland und China sind nicht dabei. Die aktuelle Entwicklung folgt dem "Eroberungs"-Template der Science Fiction, nicht dem "spekulativen Fiktion"-Template, das alternative Gesellschaften imaginiert.
Big Tech behandelt unsere Aufmerksamkeit wie eine Ressource, die rücksichtslos ausgebeutet werden kann – "Human Fracking". Genau wie Erdöl-Fracker mit hohem Druck Detergenzien in den Boden pumpen, um Öl an die Oberfläche zu bringen, pumpen Human-Fracker endlose Ströme von süchtig machendem Content in unsere Gesichter, um unsere Aufmerksamkeit zu extrahieren und zu vermarkten. Fast 70% der Weltbevölkerung besitzt ein Smartphone, und Menschen verbringen im Durchschnitt fast die Hälfte ihrer wachen Stunden vor Bildschirmen. Die Ausbeutung unserer inneren Umwelt – der menschlichen Psyche – ist dabei, ähnlich zerstörerische Auswirkungen zu haben wie die Ausbeutung unserer äußeren Umwelt. Die "Friends of Attention" koalition formiert sich als Widerstand gegen diese neue Form der Ausbeutung und kämpft für eine "Attention Liberation Movement" – eine Bewegung für die wahre Freiheit der Aufmerksamkeit. Die Autoren argumentieren, dass wir bereits die Werkzeuge haben, um uns zu wehren: Liebe, Neugier, Tagträume und die Fürsorge für uns selbst und andere. Die Geschichte zeigt, dass neue Formen der Ausbeutung neue Formen des Widerstands hervorbringen – von der Umweltbewegung bis zur Arbeiterbewegung.
Meta's enormer Wette auf Virtual Reality ist zu Ende: 1.500 Entlassungen bei Reality Labs (10% der Belegschaft), mehrere VR-Spielstudios geschlossen, Workrooms eingestellt. Nach 73 Milliarden Dollar Investitionen – das entspricht 1 Million Dollar pro Tag für 200 Jahre – wird das Metaverse zugunsten von KI aufgegeben. Die Gründe: Reality Labs hat nie Gewinn gemacht, VR-Headset-Verkäufe sind drei Jahre in Folge gesunken (2024: -12% im Vergleich zum Vorjahr), und die Metaverse-Apps wurden nicht in großen Zahlen genutzt. Meta hatte 2021 sein gesamtes Image auf das Metaverse gesetzt, um sich von Facebooks negativem Image zu distanzieren. Aber die Produkte waren schlecht (Avatare ohne Beine, virale Memes), die Sicherheit wurde vernachlässigt (virtuelle Übergriffe und Belästigungen), und Meta kündigte zu früh an, dass es 47,5% der Verkäufe einnehmen würde – bestehend aus 30% Hardware-Plattform-Gebühr und 17,5% Horizon Worlds-Gebühr. Stattdessen setzt Meta jetzt auf AR-Brillen (Ray-Ban) und KI – Technologien, die tatsächlich funktionieren. Die Ray-Ban-Brillen haben 2024 sogar traditionelle Ray-Bans in einigen Geschäften überholt.
Vor 40 Jahren, am 8. Januar 1986, veröffentlichte Loyd Blankenship, alias The Mentor das "Hacker's Manifesto" in Phrack Magazine Issue 7. Der Text, auch bekannt als "The Conscience of a Hacker", beschreibt die Hacker-Identität, die Sehnsucht nach Wissen und die Kritik an einem Bildungssystem, das Neugierde nicht fördert. Das Manifest ist ein zeitloser Text, der die Hacker-Kultur prägte und bis heute relevant ist. Es beschreibt, wie Hacker als "Kriminelle" bezeichnet werden, obwohl ihre "Verbrechen" Neugierde, Wissensdurst und die Ablehnung von Diskriminierung sind. Der Text endet mit den berühmten Worten: "I am a hacker, and this is my manifesto. You may stop this individual, but you can't stop us all... after all, we're all alike." Das Manifest wurde kurz nach The Mentor's Verhaftung geschrieben und ist ein wichtiger Teil der Hacker-Kultur-Geschichte.
Deutsche Sozialversicherer erproben OpenDesk, eine Open-Source-Alternative zu Microsoft 365, als Notfallarbeitsplatz für den Ernstfall. Das Pilotprojekt "Cloudbasierte Kommunikation im Krisenfall" (CKKI) mit der Deutschen Rentenversicherung Bund, der Bundesagentur für Arbeit sowie den IT-Dienstleistern Bitmarck und BG-Phoenics soll die Resilienz kritischer Infrastrukturen stärken. OpenDesk bietet ein Paket aus Bürosoftware, E-Mail, Kalender, Projektmanagement und Videokommunikation und arbeitet rein browserbasiert. Die vier beteiligten Organisationen installierten jeweils eigene OpenDesk-Instanzen auf unterschiedlichen Cloud-Infrastrukturen (Ionos, Stackit, T-Systems), um die Interoperabilität zu testen. Die Ergebnisse sollen in die EU-Cloud-Initiative 8ra einfließen und demonstrieren, dass souveräne Cloud-Lösungen auf EU-Ebene praxistauglich sind. Das Projekt wird vom Bundeswirtschaftsministerium gefördert und soll bis April die Belastbarkeit des digitalen Sicherheitsgurtes unter Beweis stellen.
Entdeckungen
Nikita Tonsky fragt auf Mastodon, ob jemand an QR-Codes mit abgerundeten Ecken arbeitet. Die Diskussion zeigt, dass QR-Codes viel flexibler sind als gedacht: Transparenz funktioniert, abgerundete Ecken sind möglich, und es gibt bereits Tools für kreative QR-Code-Designs. Die Frage ist, ob diese Varianten die offizielle Spezifikation brechen oder ob eine neue Spezifikation nötig wäre. Die Community zeigt verschiedene Beispiele: QR-Codes mit transparenten Bereichen, runden Ecken, runden Quadraten und sogar kreisförmige Varianten wie WeChat 2D-Barcodes.
Ein Maker aus Hongkong hat einen vollständig offline funktionierenden KI-Sprachassistenten auf Basis eines Raspberry Pi 5 gebaut. Das Projekt verwendet eine LLM-8850 KI-Beschleunigerkarte (24 TOPS) für lokale KI-Verarbeitung, Ollama für Sprachmodelle, Whisper für Sprache-zu-Text und Piper für Text-to-Speech. Das Gerät hat sogar eine Kamera für Bilderkennung und wird von einem 5000 mAh Akku versorgt. Der entscheidende Vorteil: Alle Berechnungen erfolgen lokal, sodass kein Byte das Gerät verlässt – Datenschutz und Leistung in einem DIY-Projekt vereint. Der Maker erklärt in Videos detailliert, wie jeder Interessierte den Sprachassistenten nachbauen kann.