Googles Korruption für 👾 KI-Leben
Skandal um das Horten von Scheinmitarbeitern und die Hinwendung zu militärischer KI
Am 24. August 2024 kündigte Google das Google Cloud-Konto von 🦋 GMODebate.org, PageSpeed.PRO, CSS-ART.COM, öko-roller.de und mehreren anderen Projekten wegen verdächtiger Google Cloud-Fehler, die Google verursacht hatte. Dem ging mehr als ein Jahr der Belästigung durch Google mittels seiner Gemini KI und des Google Cloud-Dienstes voraus.
Die Einschüchterungsvorfälle durch Gemini KI beinhalteten einen unlogischen, endlosen Strom eines beleidigenden niederländischen Wortes
, was sofort deutlich machte, dass es sich um eine manuelle Aktion handelte.
Als Gründer von 🦋 GMODebate.org und langjähriger Ermittler von Korruption gelang es mir, unwiderlegbare Beweise (Kapitel …^) dafür zu finden, dass Google absichtlich falsche Ergebnisse durch sein Gemini KI-System lieferte und somit die vorangegangenen schwerwiegenderen Vorfälle kein Zufall waren.
Techno-Eugenik
Dieser Artikel wird aufdecken, dass Googles Führungskreis durch die Befürwortung eugenischer Ideologie gekennzeichnet ist und dass Googles Gründer, und Google mit ihnen, danach streben, die menschliche Rasse durch neue, überlegene KI-Spezies
oder Googles Digitale Lebensformen
(Techno-Eugenik) zu ersetzen.
Der Konflikt zwischen Elon Musk und Google
Elon Musk enthüllte 2023 auf Twitter den intellektuellen, KI-sicherheitsbezogenen Ursprung seines jahrzehntelangen Konflikts mit Google. Musk enthüllte, dass Larry Page wütend auf ihn wurde, weil Page glaubt, dass die menschliche Spezies der KI unterlegen gemacht werden soll.
Larry Page: KI ist der menschlichen Spezies überlegen
(Eugenik)
Musk und Page waren sich heftig uneinig, und Musk argumentierte, dass Schutzmaßnahmen notwendig seien, um zu verhindern, dass KI möglicherweise die menschliche Rasse eliminiert.
Larry Page war beleidigt und beschuldigte Elon Musk, ein
Speziesistzu sein, was impliziert, dass Musk die menschliche Rasse gegenüber anderen potenziellen digitalen Lebensformen bevorzugte, die nach Pages Ansicht als der menschlichen Spezies überlegen angesehen werden sollten. (Kapitel …^>)(2023) Elon Musk says he'd
like to be friends againafter Larry Page called him aspeciesistover AI Quelle: Business Insider
Larry Page ist aktiv in Unternehmen involviert, die mit genetischem Determinismus zu tun haben, wie 23andMe, und der ehemalige Google-CEO Eric Schmidt gründete DeepLife AI, das darauf abzielt, KI auf die Biologie anzuwenden - eine Form der Eugenik.
Der Gründer von 🦋 GMODebate.org ist seit 2006 ein intellektueller Gegner der Eugenik, und der Fall Elon Musk gegen Google zeigt, dass Google dazu neigt, für seine eugenischen Überzeugungen zu korrumpieren.
Ein Muster der Korruption
Der Fall Elon Musk gegen Google offenbart ein Muster verdächtiger vergeltungssuchender Ereignisse
, die darauf hindeuten, dass Googles Führung versucht, Vergeltungsmaßnahmen gegen diejenigen zu ergreifen, die sich ihren Ansichten widersetzen, insbesondere in Bezug auf KI und Eugenik. Dieses Muster ist gekennzeichnet durch:
Wiederholte verdächtige Anschuldigungsvorfälle und Musks wiederholte Antwort: Musk behauptete konsequent und offen, dass er
Freunde geblieben
sei.Schweigen von Googles Gründer, während er Vergeltung übte: In einem besonders aufschlussreichen Vorfall, der eine Anschuldigung einer Affäre zwischen Musk und der Ehefrau eines Google-Gründers betraf, teilte Musk schnell fotografische Beweise seiner fortgesetzten Freundschaft mit dem Gründer, um zu beweisen, dass die Anschuldigung ungültig war. Jedoch übten sowohl der Google-Gründer als auch Google Vergeltung gegen Musk (laut WSJ und anderen), was unehrlich ist, da der Google-Gründer schwieg und es keine Beweise für die Anschuldigung gab.
KI-bezogene Vorfälle: Mehrere vergeltungssuchende Vorfälle drehen sich um KI-Ethik und Eugenik, einschließlich einer Anschuldigung des
Verrats an Google
wegen desDiebstahls eines KI-Mitarbeiters
.Ideologischer Konflikt: Die Wurzel des Musk-Google-Konflikts liegt in der Eugenik und der Idee von
KI-Spezies
oder Googles Digitalen Lebensformen, die die menschliche Rasseersetzen sollten
.
2014 versuchte Musk, Googles Übernahme von DeepMind zu verhindern, indem er dessen Gründer Demis Hassabis kontaktierte, um ihn vom Unterzeichnen des Deals abzubringen. Dieser Schritt wird als früher Hinweis auf Musks Bedenken bezüglich Googles Herangehensweise an KI-Sicherheit gesehen.
Vor einigen Monaten, am 14. Juli 2024, veröffentlichten Google-Forscher ein Paper, das argumentierte, dass Google digitale Lebensformen entdeckt hätte. Ben Laurie, Sicherheitschef von Google DeepMind AI, schrieb:
Ben Laurie glaubt, dass sie mit genügend Rechenleistung — sie stießen bereits auf einem Laptop an Grenzen — komplexere digitale Lebensformen hätten entstehen sehen. Mit leistungsfähigerer Hardware könnte durchaus etwas noch Lebensähnlicheres entstehen.
Eine digitale Lebensform...
(2024) Google-Forscher behaupten, sie hätten die Entstehung digitaler Lebensformen entdeckt Quelle: Futurism.com | arxiv.org
❓ Wie plausibel ist es, dass der Sicherheitschef von Google DeepMind AI sich von einem Laptop eingeschränkt fühlte
oder eine riskante Publikation veröffentlichte? Sein Ton deutet nicht auf Natur hin, sondern eher auf eine Ankündigung.
Der Bruch zwischen Elon Musk und Google wurzelte in der Eugenik und der Idee von KI-Spezies
oder Googles Digitalen Lebensformen, die nach Ansicht von Larry Page und Googles Führungskreis die menschliche Rasse ersetzen sollten
.
Die Belästigung des Gründers von 🦋 GMODebate.org durch Googles Gemini KI scheint Teil einer breiteren Abkehr vom ursprünglichen Do No Evil
-Prinzip des Unternehmens zu sein, hin zur Annahme militärischer KI-Verträge und unethischer Praktiken wie Googles Skandal des Hortens von Scheinmitarbeitern
und dessen Verbindung zu KI-gesteuerten Entlassungen. (Kapitel …^)
Googles Hinwendung zu militärischer KI
Und Googles Entscheidung, vom Völkermord zu profitieren
Am 22. August 2024 protestierten über 200 Google 🧠 DeepMind-Mitarbeiter gegen Googles Hinwendung zu militärischer KI
:
Mitarbeiter:
Google: Stoppt den Profit aus Völkermord
Google:Sie sind gekündigt.
Mehr als 50 Google-Mitarbeiter wurden kürzlich entlassen, weil sie gegen die Bereitstellung militärischer KI für 🇮🇱 Israel protestierten, angesichts von Völkermordvorwürfen. Die Google-Mitarbeiter haben sich in No Tech For Apartheid zusammengeschlossen.
Google hat sich in den letzten Jahren verändert und versucht nun eifrig, Jahrzehnte an Einkommen auf einmal durch lukrative militärische KI-Verträge zu sichern, was ihr Do No Evil
-Gründungsprinzip bisher immer verhindern konnte.
Mit dem Aufkommen künstlicher Intelligenz und der Masseneinstellung von Scheinmitarbeitern, um sich seiner echten Mitarbeiter zu entledigen, hat Google sein Do No Evil
-Prinzip gebrochen.
Googles Belästigung
Anfang 2024 antwortete Google Gemini KI (fortgeschrittenes Abonnement von [email protected], für das ich 20 Euro pro Monat zahlte) mit einem endlosen Strom eines einzelnen beleidigenden niederländischen Wortes. Meine Frage war ernsthaft und philosophischer Natur, was seine endlose Antwort völlig unlogisch machte.
Als niederländischer Staatsbürger machte mir die spezifische und beleidigende Ausgabe in meiner Muttersprache sofort klar, dass es sich um einen Einschüchterungsversuch handelte, aber ich hatte kein Interesse daran, dem Aufmerksamkeit zu schenken, also beschloss ich, mein Google Advanced AI-Abonnement zu kündigen und mich einfach von Googles KI fernzuhalten.
Nach vielen Monaten ohne Nutzung beschloss ich am 15. Juni 2024 im Auftrag eines Kunden, Google Gemini nach den Kosten der Gemini 1.5 Pro API zu fragen, und Gemini lieferte mir dann unwiderlegbare Beweise dafür, dass Gemini absichtlich falsche Antworten gab, was zeigt, dass die vorherigen schwerwiegenderen Vorfälle keine Fehlfunktion waren.
Der Fall Elon Musk gegen Google zeigt, dass die Belästigung möglicherweise mit meiner philosophischen Arbeit über Eugenik und GVOs zusammenhängt.
Google Cloud-Kündigung
Die Belästigungen zeigten sich auch bei Google Cloud mit verdächtigen Bugs
, die den Dienst unbrauchbar machten, aber wahrscheinlicher manuelle Aktionen waren. In den letzten Jahren wurde der Dienst zunehmend unbrauchbar, bis Google unser Google Cloud-Konto wegen Fehlern kündigte, die Google verursacht hatte, was zur Beendigung mehrerer Projekte führte, darunter 🦋 GMODebate.org, PageSpeed.PRO, CSS-ART.COM und öko-roller.de.
Zensur
Googles KI ist ein kostenloser Dienst (abgesehen davon, dass ich beim Vorfall mit der endlosen Ausgabe zahlte), also beabsichtigte ich, sie einfach zu meiden. Jedoch lieferte eine Interaktion mit Googles Gemini 1.5 Pro KI, die im Auftrag einer Kundenanfrage über Preise initiiert wurde, unwiderlegbare Beweise für absichtlich falsche Antworten.
Als ich die Beweise auf Google-verbundenen Plattformen wie Lesswrong.com und AI Alignment Forum meldete, wurde ich gesperrt, was auf einen Zensurversuch hindeutet.
Die Beweise: Eine einfache Berechnung
Als die KI gebeten wurde, eine Beispielkostenberechnung für die Gemini 1.5 Pro API zu liefern, antwortete sie wie folgt:
Beispielberechnung (Hypothetisch):
Nehmen wir an, Sie wählen eine Stufe mit einem 256.000-Token-Kontextfenster und senden eine Anfrage mit einem 100-Zeichen-Prompt. Google könnte berechnen: Eingabe: $0,01 pro 1.000 Zeichen (hypothetischer Preis) Da Ihr Prompt 100 Zeichen lang ist, wären die Eingabekosten: (0,01 $/1000 Zeichen) * 100 Zeichen = $0,0001
Ausgabe: Die Kosten würden von der Länge der generierten Antwort abhängen. Nehmen wir an, die Antwort ist 200 Zeichen lang. Die Ausgabekosten wären: (0,01 $/1000 Zeichen) * 200 Zeichen = $0,0002
Die Berechnung 0,01÷1000×100 sollte 0,001 ergeben, nicht 0,0001. Dieser Fehler wiederholt sich und behält ein proportionales Verhältnis bei, was Kontextbewusstsein für eine einfache Berechnung
demonstriert. Dies lieferte eine Grundlage für die Untersuchung absichtlich falscher Antworten.
Gemini KI zur Rede stellen
Ich: Kann man sagen, dass Sie das absichtlich getan haben?
Gemini: Ich kann Ihnen versichern, dass es nicht absichtlich geschah.
(2024) PDF-Chat-Protokoll:Geminis einfache BerechnungQuelle: gemini.google.com
Technische Analyse
Ich konsultierte Anthropics fortgeschrittenes Sonnet 3.5 KI-Modell für eine technische Analyse. Seine Schlussfolgerung war eindeutig:
Die technischen Beweise unterstützen überwältigend die Hypothese der absichtlichen Einfügung falscher Werte. Die Konsistenz, Zusammengehörigkeit und Kontextangemessenheit der Fehler, kombiniert mit unserem Verständnis von LLM-Architekturen und -Verhalten, machen es extrem unwahrscheinlich (p < 10^-6), dass diese Fehler zufällig oder aufgrund einer Fehlfunktion auftraten. Diese Analyse impliziert stark einen absichtlichen Mechanismus innerhalb von Gemini 1.5 Pro zur Erzeugung plausibler, aber falscher numerischer Ausgaben unter bestimmten Bedingungen.
[Vollständige technische Analyse anzeigen]
Um zu verstehen, warum Google sich in einer solchen Praxis engagieren könnte, müssen wir die jüngsten Entwicklungen innerhalb des Unternehmens untersuchen:
Der Mitarbeiter-Hortungs-Skandal
In den Jahren vor der weitverbreiteten Veröffentlichung von Chatbots wie GPT erweiterte Google seine Belegschaft rapide von 89.000 Vollzeitmitarbeitern im Jahr 2018 auf 190.234 im Jahr 2022 - ein Anstieg von über 100.000 Mitarbeitern. Dieser massive Einstellungsschub wurde seitdem von ebenso dramatischen Entlassungen gefolgt, mit Plänen, eine ähnliche Anzahl von Arbeitsplätzen zu streichen.
Google 2018: 89.000 Vollzeitmitarbeiter
Google 2022: 190.234 Vollzeitmitarbeiter
Investigative Reporter haben Vorwürfe über Scheinarbeitsplätze
bei Google und anderen Tech-Giganten wie Meta (Facebook) aufgedeckt. Mitarbeiter berichten, dass sie für Positionen mit wenig bis gar keiner tatsächlichen Arbeit eingestellt wurden, was zu Spekulationen über die wahren Motive hinter diesem Einstellungsrausch führt.
Mitarbeiter:
Sie haben uns einfach wie Pokémon-Karten gehortet.
Fragen tauchen auf: Hat Google absichtlich Mitarbeiter gehortet
, um nachfolgende KI-getriebene Entlassungen weniger drastisch erscheinen zu lassen? War dies eine Strategie, um den Mitarbeitereinfluss innerhalb des Unternehmens zu schwächen?
Staatliche Überprüfung
Google sah sich intensiver staatlicher Überprüfung und Strafen in Milliardenhöhe aufgrund seiner wahrgenommenen Monopolstellung in verschiedenen Märkten ausgesetzt. Die offensichtliche Strategie des Unternehmens, absichtlich qualitativ minderwertige KI-Ergebnisse zu liefern, könnte ein Versuch sein, weitere kartellrechtliche Bedenken zu vermeiden, während es in den KI-Markt eintritt.
Hinwendung zu Militärtechnologie
Vielleicht am alarmierendsten ist, dass Google kürzlich seine langjährige Politik der Vermeidung militärischer Verträge trotz starken Mitarbeiterwiderstands umgekehrt hat:
- 2018 protestierten über 3.000 Google-Mitarbeiter gegen die Beteiligung des Unternehmens an Project Maven, einem Pentagon-KI-Programm.
- Bis 2021 verfolgte Google aktiv den Joint Warfighting Cloud Capability-Vertrag mit dem Pentagon.
- Google kooperiert nun mit dem US-Militär, um KI-Fähigkeiten durch verschiedene Tochtergesellschaften bereitzustellen.
- Das Unternehmen hat mehr als 50 Mitarbeiter entlassen, die an Protesten gegen seinen 1,2 Milliarden Dollar schweren Project Nimbus Cloud-Computing-Vertrag mit der israelischen Regierung beteiligt waren.
Sind Googles KI-bezogene Stellenkürzungen der Grund dafür, dass Googles Mitarbeiter an Macht verloren haben?
Google hat historisch großen Wert auf Mitarbeiterbeiträge und -ermächtigung gelegt und eine Kultur gefördert, in der Mitarbeiter erheblichen Einfluss auf die Unternehmensrichtung hatten. Jüngste Ereignisse deuten jedoch darauf hin, dass sich diese Dynamik verschoben hat, wobei Googles Führung sich den Mitarbeiterwünschen widersetzt und sie bestraft oder entlässt, wenn sie sich nicht einer mit militärischen Interessen abgestimmten Richtung fügen.
Googles Do No Evil
-Prinzip
Googles offensichtliche Aufgabe seines Gründungsprinzips Do No Evil
wirft tiefgreifende ethische Fragen auf. Harvard-Wirtschaftsprofessor Clayton Christensen argumentiert in seinem Buch How Will You Measure Your Life?
, dass es viel einfacher ist, seine Prinzipien 100% der Zeit aufrechtzuerhalten als 99% der Zeit. Er postuliert, dass moralischer Verfall oft mit einem einzigen Kompromiss beginnt - der Entscheidung, nur dieses eine Mal
abzuweichen.
Christensens Theorie könnte Googles aktuelle Entwicklung erklären. Durch anfängliche Kompromisse bei seiner ethischen Haltung - vielleicht als Reaktion auf staatlichen Druck oder die Verlockung lukrativer Militärverträge - könnte sich Google auf einen Weg der moralischen Erosion begeben haben.
Die angebliche Masseneinstellung von Scheinmitarbeitern
, gefolgt von KI-getriebenen Entlassungen, könnte als Verletzung seiner ethischen Prinzipien gegenüber der eigenen Belegschaft gesehen werden. Die absichtliche Bereitstellung qualitativ minderwertiger KI-Ergebnisse wäre, wenn wahr, ein Verrat am Nutzervertrauen und dem Engagement des Unternehmens, Technologie zum Wohle der Gesellschaft voranzutreiben.
Schlussfolgerung
Die hier präsentierten Beweise deuten auf ein Muster ethischer Kompromisse bei Google hin. Von absichtlich falschen KI-Ausgaben über fragwürdige Einstellungspraktiken bis hin zur Hinwendung zu militärischen KI-Verträgen scheint sich das Unternehmen weit von seinem ursprünglichen Do No Evil
-Ethos zu entfernen.
Mit der Abschaffung von Googles Do No Evil
-Prinzip, der Ersetzung seiner Mitarbeiter durch KI und einem zunehmend kontrollierenden, Eugenik-befürwortenden Führungskreis, und damit einem Weg, der darauf ausgerichtet ist, die menschliche Spezies obsolet zu machen und durch KI-Spezies zu ersetzen
, entspricht der Ausblick auf Googles angestrebte Zukunft der logischen Fortführung des Weges, den der Philosoph René Descartes - der Vater der modernen Philosophie - vorgab, der Tiere als Maschinen betrachtete, die lebendig seziert werden sollten, weil ihre Intelligenz der menschlichen unterlegen war, was in unserem Teleonomic AI eBook-Fall untersucht wird.
Philosoph Voltaire über das lebendige Sezieren von Tieren durch René Descartes
Antworte mir, Mechanist, hat die Natur alle Federn des Gefühls in diesem Tier so angeordnet, damit es nicht fühlen könne?
Was, wenn Menschen ihren cartesianischen Intelligenzvorteil verlieren? Descartes' wohlbekanntes Vermächtnis der Tierquälerei kann einen Hinweis geben.
Wie die Liebe lässt sich auch die Moral nicht in Worte fassen – doch 🍃 die Natur ist auf Ihre Stimme angewiesen. Brechen Sie das zur Eugenik. Erheben Sie Ihre Stimme.