Wird diese Nachricht nicht richtig dargestellt, klicken Sie bitte hier.

KI-Newsletter # 09

Liebe Kolleginnen und Kollegen,

die Flut der Nachrichten zu KI und auch generativer KI reißt nicht ab. Ich habe versucht, euch wieder das Wichtigste zusammenzustellen.
Was unsere Aktivitäten bei der Erarbeitung des »Code of Practice« betrifft (siehe die letzten Ausgaben): Es bleibt schwierig. Die KI-Industrie kann ihre Vorstellungen nach dem zweiten von vier Entwürfen deutlich besser durchsetzen als die Urheberseite. Der Vorsitz der Arbeitsgruppe zum Urheberrecht beharrt nach wie vor auf robots.txt als beste Möglichkeit zur Erklärung eines Nutzungsvorbehalts gegen KI-Training. 
Man kann sagen, dass die Urheberverbände frustriert sind. Diese Periodisierung zeigt sich ja auch sehr deutlich in den Ergebnisses des KI-Gipfels in Paris (siehe unten).

Trotzdem viel Spaß beim Durchklicken durch die Meldungen!

Marco

Politik

KI-Gipfel in Paris

Die Welt traf sich am 10. und 11. Februar 2025 zum KI-Gipfel in Paris. Präsident Macron wurde mittels generativer KI vorgeführt und es gab eine Menge Euphorie. 

Politiker*innen, führende Vertreter*innen Internationaler Organisationen und KI-Unternehmen, Forscher*innen und Vertreter*innen der Zivilgesellschaft aus fast 100 Ländern sind zusammengekommen, um – so heißt es – die Grundlagen für eine globale KI-Governance festzulegen. Neben anderen Staats- und Regierungschefs war auch Bundeskanzler Olaf Scholz vor Ort, um sich zum Beispiel mit OpenAI-Chef Sam Altman auszutauschen. Im Vordergrund stand die Wettbewerbsfähigkeit Europas. Macron kündigte Investitionen des Privatsektors in Höhe von 109 Milliarden Euro an. 

Mehr dazu vom ZDF

Mehr dazu vom SPIEGEL

Es gab aber auch warnende Stimmen:

Kritik an der KI

Es sollten auch Fragen des geistigen Eigentums in Bezug auf künstliche Intelligenz thematisiert werden. 38 internationale Organisationen aus dem kreativen und kulturellen Sektor haben daher im Vorfeld einen Aufruf veröffentlicht, der die Entwicklung von KI mit der Achtung von Urheber- und verwandten Rechten in Einklang bringen soll.

Mehr Infos dazu (Artikel auf französisch)

Zu den Akteuren gehörten unter anderem der Syndicat National de l’Édition Phonographique (SNEP) und die International Federation of Actors (FIA), die gemeinsam mit anderen Organisationen betonten, dass vertrauenswürdige KI nur mit der Achtung geistiger Eigentumsrechte möglich sei. 

Mehr Infos von der FIA

Über das Ergebnis des Gipfels berichtet z.B. euractiv.de: »Wachstum und Wettbewerbsfähigkeit haben auf dem KI-Gipfeltreffen in Paris Vorrang vor Sicherheit und Nachhaltigkeit. Der Übergang Europas von Regulierung hin zur Innovation wird von Frankreich gezielt vorangetrieben.«

Mehr dazu auf euractive.de

Hier die Erklärung im Wortlaut:

»Wir unterstreichen die Notwendigkeit einer globalen Reflexion, die unter anderem Fragen der Sicherheit, der nachhaltigen Entwicklung, der Innovation, der Achtung des Völkerrechts einschließlich des humanitären Rechts und der Menschenrechte sowie des Schutzes der Menschenrechte, der Gleichstellung der Geschlechter, der sprachlichen Vielfalt, des Verbraucherschutzes und der Rechte des geistigen Eigentums einbezieht.« 

Priorität haben die Urheberrechte offenbar nicht, sie stehen am Ende der Nahrungskette.

Hier geht's zum ganzen Statement

EU KI-Standardisierungsgremien von IT-Branche dominiert

Das war uns ja schon klar, aber hier ist es nochmal schwarz auf weiß. Der Text bezieht sich nicht direkt auf Urheberrechte, aber dort sieht es natürlich genau so aus. 

Der Artikel »Bias baked in« des Corporate Europe Observatory (CEO) deckt auf, dass große Technologiekonzerne den Prozess der Standardsetzung für Künstliche Intelligenz (KI) in der Europäischen Union dominieren. 

Der Bericht hebt hervor, dass die Standardisierungsarbeit vorwiegend von privaten Organisationen wie der Europäischen Normungsorganisation (CEN) und dem Europäischen Komitee für elektrotechnische Normung (CENELEC) durchgeführt wird. Diese Gremien sind jedoch stark von Vertreter*innen großer Technologieunternehmen wie Amazon, Google, Huawei, Microsoft, IBM und Oracle dominiert. Solche Unternehmen gestalten aktiv die technischen Standards, die später in EU-Verordnungen rechtlich bindend werden.

Gefordert wird mehr Transparenz und eine stärkere Einbindung von unabhängigen und zivilgesellschaftlichen Akteuren in den Standardisierungsprozess. Es wird betont, dass die demokratische Kontrolle über die Entwicklung von KI-Standards entscheidend ist, um sicherzustellen, dass diese den Interessen der gesamten Gesellschaft dienen und nicht nur den wirtschaftlichen Zielen großer Konzerne.

Dem kann man sich natürlich nur anschließen, da wir ja genau das zu spüren bekommen, wenn unsere Forderungen nicht gehört werden.

Man kann das kaum alles lesen, aber der letzte Absatz bezieht sich direkt auf den »Code of Practice« (DeepL-Übersetzung):

 

»Big Tech Taktik 5: der Verhaltenskodex (Code of Practice)

 

Während der Verhandlungen über das KI-Gesetz stand die allgemeine KI im Mittelpunkt der Lobbyarbeit von Big Tech. Dies sind die Modelle, einschließlich großer Sprachmodelle und generativer KI-Modelle wie ChatGPT, die zu den wichtigsten KI-Systemen gehören, die von Big-Tech-Unternehmen hergestellt werden. Diese allgemeinen KI-Systeme werden von anderen Unternehmen verwendet oder in eine Vielzahl von Anwendungen integriert. Ihre Hersteller, in der Regel Silicon-Valley-Giganten, wollten, dass die Vorschriften nicht für den Urheber der Technologie gelten, sondern nur für die Unternehmen, die sie auf verschiedene Weise einsetzen.

Anstatt sich auf Normen zu stützen, um KI für allgemeine Zwecke zu regulieren, sieht das Gesetz vor, dass die Regeln für diese großen KI-Modelle durch einen »Code of Practice« festgelegt werden. Die Ausarbeitung des Verhaltenskodexes erfolgt in einem ebenso wenn nicht gar in einem noch industriefreundlicheren Umfeld wie der Normungsprozess.

Das AI-Office der EU hat die Anbieter von KI-Modellen für allgemeine Zwecke sowie die zuständigen nationalen Behörden eingeladen, sich an der Ausarbeitung dieses Kodexes zu beteiligen. Andere Interessengruppen hätten lediglich eine unterstützende Funktion.

»Es ist eine Notlösung. Es handelt sich um 'Standards light'«, so der am Standardisierungsprozess beteiligte gemeinnützige Experte gegenüber Corporate Europe Observatory. »Er ist freiwillig, unternehmensgesteuert und wird die Kriterien für systemische Risiken und hochwirksame Fähigkeiten konkretisieren.«

Der Verhaltenskodex wird auch Regeln für das Urheberrecht, die Veröffentlichung der für die KI verwendeten Trainingsdaten und die Meldung von Vorfällen enthalten. 

Seit der Ankündigung hat sich die Zivilgesellschaft zu Wort gemeldet. Die Kommission meldete, sie habe 430 Beiträge zum Verhaltenskodex erhalten, und fast 1.000 Organisationen und Einzelpersonen hätten ihr Interesse an dem Prozess bekundet. 

Die EU veröffentlichte auch eine Liste der Vorsitzenden für die Entwicklung des Verhaltenskodexes, zu denen »einer der Paten der KI«, Yoshua Bengio, die ehemalige Europaabgeordnete Marietje Schaake und verschiedene Wissenschaftler gehören.«

Zitat Ende.

Na da sind wir ja in einem netten Haifischbecken unterwegs … hier ist der original Artikel, lest aber besser die folgende Stellungnahme von Matthias Hornschuh.

Matthias Hornschuh, Sprecher der Initiative Urheberrecht, mit der wir ja Seite an Seite für unsere Rechte streiten, hat eine umfangreiche Stellungnahme zu der Thematik der Dominanz der KI-Konzerne im Dialog zwischen Politik, Urheberverbänden und eben den Big Techs geschrieben. Man kann sagen, dass er ziemlich schlechte Laune hat: 

»Big Tech-Konzerne bestimmen hinter verschlossenen Türen die Regeln für ihre KI-Produkte und gefährden so Europas digitale Souveränität. Dieser unkontrollierte Lobbyismus bedroht direkt die Rechte der Bürger und die Zukunft der europäischen Digitalpolitik.«

KI-Nutzung nur mit ausreichender Kompetenz

Ab dem 02. Februar 2025 greift eine neue Stufe der KI-Verordnung, die eine Kompetenz-Pflicht für die Nutzer*innen künstlicher Intelligenz vorsieht. Mitarbeiter*innen und Selbständige dürfen KI nur noch dann nutzen, wenn sie ausreichend kompetent sind. Allerdings weiß niemand, was genau das bedeutet und wie man welche Kenntnisse sicher erlangen kann. Genaue Vorgaben fehlen, was aber Berater*innen und Schulungsinstitute nicht hindert, Alarmismus zu verbreiten.

Klarer ist die Regelung, dass KI-Systeme mit unannehmbarem Risiko verboten sind. Gemeint sind z.B. sogenannte Social-Scoring-Anwendungen, bei denen die Bürger*innen überwacht werden. Allerdings gibt es sowas bislang in Europa gar nicht. Gut, dass das so bleibt.
(Heise.de, 02.02.2025) 

Zuckerberg fordert Trump auf, die EU davon abzuhalten, US-Tech-Unternehmen mit Geldbußen zu belegen

Mark Zuckerberg wird ja langsam Stammgast im Newsletter. Hier ein Bericht von Politico: »Die US-Regierung unter dem neuen Präsidenten Donald Trump sollte intervenieren, um die EU daran zu hindern, amerikanische Tech-Unternehmen wegen Verstößen gegen Kartellvorschriften und andere Verstöße zu bestrafen«, sagte Meta-Chef Mark Zuckerberg am späten Freitag.

»Ich denke, es ist ein strategischer Vorteil für die Vereinigten Staaten, dass wir viele der stärksten Unternehmen der Welt haben, und ich denke, es sollte Teil der US-Strategie sein, das zu verteidigen«, sagte Zuckerberg im Podcast Joe Rogan Experience. (Politico.eu, 11.01.2025)

Wenn ihr die Seite öffnet, sehr ihr möglicherweise kurz ein Fenster des IT-Dienstleisters Cloudflare aufblitzen. Daran kann man sehen, dass Politico mit Cloudflare arbeitet, um seine Website zu schützen, vermutlich auch gegen KI-Crawler. Mehr dazu könnt ihr im Leitfaden zur Abwehr von Scraping und KI-Training – Punkt 2.3.3 lesen.

Die KI-Revolution: Wie Big Tech die Medienlandschaft verändert

Schon etwas ältere, aber trotzdem noch aktuelle Veröffentlichung des Bundesverbands Digitalpublisher und Zeitungsverleger:

Prof. Dr. Thomas Höppner zeigte auf dem BDZV-Kongress 2024, wie generative Künstliche Intelligenz die Medienindustrie umwälzt und wie die Algorithmen der großen Digitalplattformen den öffentlichen Diskurs prägen. Der Medienrechtsexperte warnt: Die Dominanz von Google, Amazon und Meta bedroht die Pressefreiheit und Medienvielfalt.
(BDZV, 01.10.2024)

»Stargate Project«

Ob man dabei auch an den Kinofilm und die Serie gedacht hat? OpenAI kündigt das Stargate Project an. Dabei soll es sich um ein neues Unternehmen handeln, das in den nächsten vier Jahren 500 Milliarden Dollar in den Aufbau einer neuen KI-Infrastruktur für OpenAI in den Vereinigten Staaten investieren will. Man will sofort mit dem Einsatz von 100 Milliarden Dollar beginnen. Diese Infrastruktur soll die amerikanische Führungsposition im Bereich der KI sichern, Hunderttausende von amerikanischen Arbeitsplätzen schaffen und der ganzen Welt einen enormen wirtschaftlichen Nutzen bringen. Dieses Projekt wird nicht nur die Reindustrialisierung der Vereinigten Staaten unterstützen, sondern auch eine strategische Fähigkeit zum Schutz der nationalen Sicherheit Amerikas und seiner Verbündeten bieten … so Open AI.

Zum Vergleich: 2023 betrugen die Ausgaben des Bundeshaushaltes 457,1 Milliarden Euro. Würde man 500 Milliarden Dollar auf alle Menschen der Erde (ca. acht Milliarden Menschen) gleichmäßig verteilen, hätte jede Person 62,50 Dollar.

Das passiert natürlich alles »for the benefit of all of humanity.«

Leitfaden

Update »Nepenthes« – KI-Crawler in die Teergrube locken 

Im Leitfaden-Update wird ein neues Tool zur Abwehr von KI-Crawlern vorgestellt. Das ist vermutlich nicht unbedingt praxistauglich und eher was für Expert*innen, aber es zeigt, dass es auch kreative Möglichkeiten zur Abwehr von KI-Crawlern gibt.

Aaron B. entwickelte »Nepenthes« (benannt nach einer fleischfressenden Pflanze) als Werkzeug, das darauf abzielt, KI-Crawler mit irrelevanten Daten zu beschäftigen und dadurch die Qualität ihrer gesammelten Trainingsdaten zu untergraben. 

Die Funktionsweise von »Nepenthes« ist einfach, aber effektiv: Es generiert automatisch große Mengen an nutzlosen oder irreführenden Links, die speziell darauf ausgelegt sind, KI-Crawler sinnfrei zu beschäftigen. Der Crawler lädt eine URL herunter, und wenn er Links zu anderen URLs sieht, lädt er auch diese herunter. »Nepenthes« generiert zufällige Links, die immer zu ihm selbst zurückführen und führt den Crawler so quasi im Kreis herum.

Der Webseite 404 Media erklärte Aaron B., »Nepenthes« sei »ein unendliches Labyrinth, in dem ein Minotaurus gefangen ist, wobei der Crawler der Minotaurus ist, der nicht entkommen kann« und weiter »Nehmen wir an, Sie haben Rechnerleistung und Bandbreite zur Verfügung und wollen einfach nur sehen, wie diese KI-Modelle verbrennen. »Nepenthes« hat, was Sie brauchen ... Kurz gesagt, lassen Sie sie so viel Mist aufsaugen, wie sie Platz auf der Festplatte haben, und ersticken Sie daran.«

Der Entwickler begründet sein Handeln so: »Es ist auch eine Art Kunstwerk, in dem ich meiner schieren, unverfälschten Wut darüber, wie die Dinge laufen, freien Lauf lasse. Ich hatte einfach die Nase voll davon, wie sich das Internet zu einem Panoptikum der Geldabschöpfung entwickelt, wie die Welt als Ganzes in den Faschismus abrutscht und Oligarchen das Sagen haben - und es ist schlimm genug geworden, dass wir uns nicht durch Boykott oder Wahlen herauswinden können, wir müssen anfangen, denen da oben echten Schmerz zuzufügen, damit sich etwas ändert.«

Bericht auf Golem.de (24.01.2025):

Der ganze Bericht dazu auf golem.de

Bericht auf 404 media (23.01.2025):

Der ganze Bericht dazu auf 404media.de

Die Entwicklerwebsite:

Mehr zu den Entwicklern

Ich empfehle nach wie vor erstmal den Nutzungsvorbehalt gegen KI-Training in den IPTC-Daten, dem Impressum und der robots.txt-Datei zu erklären. Das ist relativ einfach. Wer KI-Crawler vom Besuch der eigenen Website ausschließen will, nutzt am Besten der kostenlosen Service von Cloudflare. Wird alles im Leitfaden beschrieben.

Hier ist nochmal der Link zum »Leitfaden Abwehr von Scraping und KI-Training«: 

Recht & Unrecht

Sam Altman – »Haltet den Dieb!« rief der Dieb

Open AI-Chef Sam Altman beklagt sich darüber, dass Deepseek sein KI-Modell aus denen von OpenAI destilliert haben soll – und beansprucht plötzlich das Urheberrecht für sich. Das ist natürlich irgendwie irre, weil Open AI seine ganzen Daten unter Missachtung des Urheberrechts gesammelt hat. 

Johannes Hiltscher schreibt dazu in Golem.de (29.01.2025): »Vom Piraten zum Verfechter des Urheberrechts« … man darf aber bezweifeln, dass Altman zu einem ernsthaften Verfechter der Interessen von Urheber*innen wird:

Trainingsdaten für Chat GPT – Zwischen Kopie und Wahnsinn

Suchir Balaji, ein Ex-Mitarbeiter, warf OpenAI systematische Copyright-Verletzungen mit katastrophalen Folgen vor: einem Internet, das sich nur noch selbst imitiert. Er nahm sich mit 26 Jahren das Leben.

Warum das eine berechtigte Warnung ist, schreibt Carsten Schnober auf Golem.de (22.01.2025):

»Nach Balajis Darstellung verstößt OpenAI beim Sammeln von Daten systematisch gegen das Copyright. Das daraus resultierende Produkt ChatGPT gefährde das Ökosystem des Internets: Individuen und Firmen hätten dem Chatbot unfreiwillig die Daten zu dessen Erfolg geliefert, während ihre Communitys austrockneten und synthetische Beiträge das Internet fluteten.«

Ein Grund, warum OpenAI gar nicht so genau wissen will, wie der Output zustande kommt: »OpenAI hat aus mehreren Gründen wenig Interesse daran, die Verbindungen zwischen Trainingsdaten und generierten Texten zu erkunden. Der erste liegt in der Frage, die Suchir Balaji umtrieb: ›Wie viele Copyright-geschützte Informationen [...] finden ihren Weg in den Output eines Modells?‹«

Mehr dazu hier

Mit einem Free-Account kann man den Artikel in der New York Times lesen, durch den Suchir Balaji zum Whistleblower wurde:

Mehr dazu hier

Business Insider hat die Mutter von Suchir Balaji interviewt (Desktop-Version nur nach Anmeldung, Smartphone-Version auch ohne):

Zum gesamten Interview

Für Expert*innen hier außerdem die ausführliche Begründung der Überlegungen von Suchir Balaji in seinem Blog:

Mehr Infos hier

KI-Firma verliert in erstem US-Rechtsstreit

Jetzt aber doch noch Recht in unserem Sinne: In den USA sind Dutzende Gerichtsverfahren anhängig, weil KI mit nicht lizenziertem Material trainiert wurde. Die KI-Unternehmen begründen das in der Regel mit der Fair-Use-Regelung, die in den USA – im Gegensatz zur EU Text-Data-Mining-Regelung im Urhebergesetz – gilt. Sowohl in den USA als auch in der EU ist unklar, ob das jeweils gilt. Heise.de schreibt: »In den USA hat sich erstmals ein Medienkonzern gerichtlich gegen einen KI-Konzern durchgesetzt, der dessen Inhalte zum Training seiner Algorithmen verwendet hat. Sollten sich andere Gerichte der Einschätzung anschließen, wäre das ›wirklich schlecht für die Branche der generativen KI‹«, zitiert Wired einen Experten für IT-Recht.«
(heise.de, 12.02.2025) 

Na, das lässt ja mal hoffen…

Mehr Infos hier

Ebenfalls zu dem Fall: The Decoder – nicht ganz so optimistisch:

Weiteres auf the-decoder.de

Führungskräfte in der KI-Phishing-Flut

Führungskräfte von Unternehmen werden mit einer Flut von hyperpersonalisierten Phishing-Betrügereien konfrontiert, die von Bots mit künstlicher Intelligenz generiert werden und persönliche Daten enthalten, die wahrscheinlich durch KI-Analysen von Online-Profilen gewonnen wurden. Sie werten die Online-Präsenz und die Social-Media-Aktivitäten eines Opfers aus, um festzustellen, auf welche Themen es am ehesten reagieren würden. So können Hacker maßgeschneiderte Phishing-Betrügereien in großem Maßstab erstellen.

»Es wird immer schlimmer und sehr persönlich, und deshalb vermuten wir, dass KI hinter vielem steckt«, sagte Kirsty Kelly, Chief Information Security Officer bei Beazley. »Wir beginnen, sehr gezielte Angriffe zu sehen, die eine riesige Menge an Informationen über eine Person abgreifen.«

Nur eine Frage der Zeit, bis das bei uns allen ankommt und nicht auszudenken, was das für die Kommunikation von populistischen Parteien bedeutet…
(arsTECHNICA, 02.01.2025)

Markt

Telekom nutzt für Marketing künftig generierte Bilder von Black Forest Labs 

Heise schreibt: »Bald sind Bilder, die von der Deutschen Telekom für Marketing-Zwecke genutzt werden, mittels KI generiert. Konkret nutzt der Telekommunikationsanbieter dafür das Modell Flux von Black Forest Labs, dem im Schwarzwald ansässigen KI-Unternehmen«. Und weiter: »Konkret sollen die Marketing-Mitarbeiter von der Telekom künftig Zugriff auf das Modell bekommen, um Bilder damit für die Arbeit zu generieren. Als Beispiel-Prompt nennt die Telekom: »Eine Gruppe lachender junger Menschen, die an einem Frühlingstag am Strand von Barcelona ein Selfie macht. Das Bild machen sie mit einem T Phone.« Um das Modell mit markenspezifischen Bildern zu trainieren, habe man nur rund 20 Motive gebraucht.
(heise.de, 12.02.205)

Kunst & Kommerz

1,2 Millionen für ein Bild vom Roboter

1,2 Millionen würde wohl jeder von uns ganz gerne mal für ein Bild bekommen. Vielleicht muss man dafür ein KI-Roboter sein. Dessen Bild erzielte bei einer Versteigerung diesen Preis.
(Tagesschau, 08.11.2024)

Soras Künstlerprogramm für KI-Filmemacher*innen

Die KI-Filmmaschine Sora wirbt für die Einführung seines Künstlerprogramms. Sora Selects hat zehn Künstler*innen und Künstlerteams zusammengestellt, die Sora verwendet haben, um Kurzfilme zu erstellen, die die kreativen Möglichkeiten des Tools zeigen. OpenAI, das Unternehmen hinter dem Modell, hat drei Millionen Dollar in die Initiative investiert, und sein Team hat die letzten zehn Monate damit verbracht, eine Beziehung zu diesen Künstler*innen aufzubauen.

Einer davon ist der uns ja gut bekannte Boris Eldagsen. Er hat den Sony Award nicht angenommen, den er für sein KI-generiertes Bild bekommen sollte.

Seine Gedanken zur KI drehen sich um deren Grauzonen – von der Urheberrechtsfähigkeit (ein Problem, das »an die Nutzer ausgelagert wird«, wie er sagt) bis hin zu den fehlenden Vorschriften in diesem Bereich (zumal die neue US-Regierung einen 500-Millionen-Dollar-Vorstoß in die KI unternimmt). Durch Spawning hat er erfahren, dass seine eigenen Arbeiten als Trainingsdaten verwendet wurden – eine Tatsache, die seiner Meinung nach einfach »die Realität« ist.

Boris fragt auch: »Was sind die Auswirkungen einer Zukunft, in der der größte Teil des Internets generiert wird? [Es gibt] einen Verlust von Authentizität und ein Potenzial für Desinformation, wenn KI der neue Super-Treibstoff für die Social-Media-Maschine wird.«

»Wir brauchen Definitionen, um die Stärken von KI und Mensch zu finden. Was kann KI gut oder besser und schneller machen? Was können wir auslagern?«, fügte er hinzu. »Was bleibt für uns übrig?« (Zitate mit DeepL übersetzt)
(Artnet.com 03.02.2025)

Technik

DeepSeek greift nun auch noch KI-Bildgeneratoren an 

Alle sind sehr aufgeregt, weil es ein KI-Modell aus China gibt, das anscheinend mit weit weniger Rechenkapazität und Energie auskommt, als die US-amerikanischen Modelle, dabei aber gleichwertige Ergebnisse liefert. Nun stellt sich heraus: DeepSeek, die KI-Maschine aus dem fernen Osten, kann auch Bilder generieren. Allerdings sind die von DeepSeek bereitgestellten Beispielbilder, die angeblich von anderen Generatoren kommen, nicht wirklich State-of-the-art.
(Heise.de, 28.01.2025)

Mehr dazu hier

Wie auch immer… Für die Sicherheit von DeepSeek gibt es von Forschern ein »F«, also die Schulnote »6«.
(Gizmodo, 04.02.2025)

Mehr Infos dazu hier

OmniHuman-1 bringt Bildern das Laufen bei

Nochmal China. Forscher*innen des TikTok-Mutterkonzerns ByteDance haben mit OmniHuman-1 ein neues KI-Tool vorgestellt, das aus einem Referenzbild und einem Audioclip – etwa einem Song-Schnipsel – kurze Videos generiert.

The Decoder schreibt: »OmniHuman produziert so lebensechte Mundbewegungen und natürlich wirkende Begleitgestik, die gut zum Gesprochenen passen. Auch bei Körperproportionen und Umgebungen, mit denen bisherige Modelle Schwierigkeiten hatten, liefert es überzeugende Ergebnisse.« – »Die Länge der generierten Videos ist offenbar nicht seitens des Modells beschränkt, sondern lediglich durch den verfügbaren Speicher.«
(The Decoder, 04.02.2025)

Mehr Infos dazu hier

Die Präsentation der Forscher*innen auf GitHub mit einigen Beispielvideos:

Hier gehts zur Präsentation

Auch das noch 

Erste KI-Kampagne von Adidas

Der Filmregisseur Blair Vermette hat mit seinem fiktiven Werbespot die Aufmerksamkeit der Fans, Kreativen und Marken von adidas gewonnen. Der Spot wurde vollständig von künstlicher Intelligenz erstellt und bewirbt eine nicht existierende Kollektion mit floralen Motiven. 

Er zeigt KI-generierte »Menschen«, die in farbenfroher, mit Blumen bedruckter Kleidung und Schuhen zum neuesten Song »Mamushi« von Megan Thee Stallion tanzen. Außerdem werden verschiedene Orte gezeigt, die mit Japan in Verbindung gebracht werden, wie z.B. ein Onsen, ein Bahnhof, ein Tempel und ein Park voller Sakura-Bäume.

Rudi Leung, Gründer und Direktor von Hungry Digital, bremst aber die Euphorie: Er sagte, dass der Spot auf den ersten Blick visuell beeindruckend sei, aber: »Ich glaube, dass Werbung mehr braucht als nur Ästhetik – sie muss eine emotionale Verbindung herstellen und eine fesselnde Geschichte erzählen, in der sich die menschliche Kreativität noch auszeichnet.« Ich würde sagen, dass das bei konventinell umgesetzter Werbung auch nicht immer der Fall ist.

Auf jeden Fall ist der Spot ziemlich geil. Leider.

Investor sieht Löhne aller Menschen abstürzen

Marc Andreessen, Milliardär und Tech-Investor, verkündete in einem Tweet, dass die KI die Löhne aller Menschen »abstürzen« lassen muss, bevor sie uns eine wirtschaftliche Utopie bescheren kann – eine Utopie, die auf jeden Fall eintreten wird und sicherlich nicht zu einer dauerhaften Unterschicht von Habenichtsen führt. Seiner Meinung nach.

»Eine Welt, in der die Löhne der Menschen durch die KI – logischerweise zwangsläufig – sinken, ist eine Welt, in der das Produktivitätswachstum durch die Decke geht und die Preise für Waren und Dienstleistungen auf nahezu Null sinken«, schrieb Andreessen. »Ein Füllhorn an Konsumgütern. Alles, was man braucht und will, für ein paar Cent.«
(Futurism.com, 27.01.2025)

Ach so. Na dann.

Wenn Sie diese E-Mail nicht mehr empfangen möchten, können Sie diese hier abbestellen.
 
FREELENS e.V.
Heike Ollertz
Alter Steinweg 15
20459 Hamburg
Deutschland


post@freelens.com