To read this post in English click here
Pour la version française cliquez ici
mit einem herzlichen Dank an mein Medien-Team (und jetzt auch meine Mitaktionäre), die dieses Jahr so erfolgreich und erfüllend gemacht haben:
Eric De Grasse, Chief Technology Officer
Catarina Conti, Media Content Managerin/Medienanalyse
Gregory Lanzenberg, Koordinator für den Medien-/Videobetrieb
Alexandra Dumont, Betriebsleiterin der The Project Counsel Group
Angela Gambetta, Managerin von E-Discovery Operations
mit einem ganz besonderen Dank an meinen außergewöhnlichen Videofilmer Marco Vallini und seine Videocrew
sowie an meine Grafikdesignerin Silvia Di Prospero
sowie einen Dank an meine Leser in Australien, Belgien, Kanada, China, Frankreich, Deutschland, Griechenland, Irland, Italien, Südafrika, dem Vereinigten Königreich und den Vereinigten Staaten – Sie waren meine Top-Länder bei der Leserschaft. Ich schätze es, dass Sie sich die Zeit genommen haben, (wieder einmal) die Perspektive zur Technologie und zu anderen Dingen von einem Mann zu lesen, der an mehreren Küsten beheimatet ist
* * * * * * * * * *
“Wissenschaftliche Themen, die in den letzten Jahren in Zeitungen und Zeitschriften eine herausragende Rolle spielten, sind Molekularbiologie, künstliche Intelligenz, künstliches Leben, die Chaostheorie, massiver Parallelismus, neuronale Netze, das inflationäre Universum, Fraktale, komplexe adaptive Systeme, Superstrings, Biodiversität, Nanotechnologie, das menschliche Genom, Expertensysteme, interpunktiertes Gleichgewicht, zelluläre Automaten, Fuzzy-Logik, Weltraum-Biosphären, die Gaia-Hypothese, virtuelle Realität, Cyberspace und Teraflop-Maschinen… Im Gegensatz zu früheren intellektuellen Bestrebungen sind die Errungenschaften dieser technischen Kultur nicht die marginalen Streitigkeiten einer streitbaren Mandarinklasse: Sie werden das Leben aller auf dem Planeten beeinflussen.”
12 Januar 2018 (St. Malo, Frankreich) – Sie könnten denken, dass die obige Themenliste Teil eines Beitrags ist, der letztes Jahr oder vielleicht Ende letzten Jahres geschrieben wurde. Aber das wäre ein Irrtum. Sie war der Kernpunkt eines Essays vor 25 Jahren in der The Los Angeles Times von John Brockman, einem literarischen Agenten (befreundet mit Künstlern wie Andy Warhol und Bob Dylan) und Autor in der wissenschaftlichen Literatur, berühmt für die Gründung der Edge Foundation,einer Organisation, die darauf abzielt, Menschen zusammenzubringen, die am Rande eines breiten Spektrums von wissenschaftlichen und technischen Bereichen arbeiten. Wenn Sie jemals zu einem Dinner oder Event der Edge Foundation eingeladen werden, gehen Sie einfach hin. Sie werden dann vielleicht plötzlich neben Richard Dawkins, Daniel Dennett, Jared Diamond, John Tooby, David Deutsch, Nicholas Carr, Alex Pentland, Nassim Nicholas Taleb, Martin Rees, AC Grayling usw. sitzen. Oder alle von ihnen treffen.
Brockman hat es sicherlich richtig verstanden. Aber er war vielleicht nicht in der Lage, das schwindelerregende Tempo vorherzusagen. Und dieses Jahr? Schauen Sie, ich weiß nicht, wie ich das sonst noch sagen soll: Es war ein höllisches Jahr. Der Technik-News-/Ankündigungszyklus bewegt sich so schnell, dass es zum Zeitpunkt des Forschens, Schreibens, Reflektierens, Editierens und Publizierens bereits zu den Nachrichten von gestern gehört. Und 2017 könnten die gestrigen Nachrichten auch die Nachrichten des letzten Jahres sein.
Und nicht nur in der Technik. In einer Welt, in der sich die Leute Sorgen machen, welches schlechte Ereignis Ihnen als Nächstes zustössen könnte, war es schwierig für mich, darüber zu schreiben, was auf entfernten Schlachtfeldern oder abstrakt im nationalen Sicherheits- und Überwachungsapparat geschieht.
Ja, der atemberaubende Fortschritt der wissenschaftlichen Entdeckung und der Technologie schlägt das Unbekannte in die Flucht. Vor nicht allzu langer Zeit war die Schöpfung 8.000 Jahre alt und der Himmel schwebte ein paar tausend Meilen über unseren Köpfen. Jetzt ist die Erde 4,5 Milliarden Jahre alt und das beobachtbare Universum erstreckt sich über 92 Milliarden Lichtjahre. Aber ich denke, wenn wir kopfüber in das hektische Tempo all dieser Entwicklungen der Künstlichen Intelligenz geschleudert werden, leiden wir unter Illusionen des Verstehens, einem falschen Sinn für Verständnis und können die drohende Kluft zwischen dem, was unser Gehirn weiß und dem, zu dem unser Verstand Zugang hat, nicht sehen. Es ist natürlich ein Problem. Die Wissenschaft hat eine Vielzahl von Technologien hervorgebracht, die alle Aspekte des modernen Lebens dramatisch infiltriert haben. In vielerlei Hinsicht wird die Welt so dynamisch und komplex, dass technologische Fähigkeiten die menschlichen Fähigkeiten, mit diesen Technologien optimal zu interagieren und diese zu nutzen, überfordern.
Wie meine regelmäßigen Leser wissen, versuche ich, ein “Big Picture” Typ, ein Spätzünder im Herzen zu sein und zu glauben, dass alles in der Technologie verwandt ist. Das Modell, dem ich zu folgen versuche, steht mehr in der Tradition eines britischen Wochenmagazins – zum Thema, aber ein wenig außerhalb davon, sowohl persönlich als auch politisch, mehr als nur formal.
Um dies zu erreichen, verfolge ich einen sehr vielseitigen Konferenzplan, der mehr als 18 Veranstaltungen umfasst (mein Team deckt weitere 8 Veranstaltungen ab), und dies bietet mir Perspektiven und eine ganzheitliche technische Ausbildung. Sie können unseren gesamten Jahreskonferenzplan sehen, indem Sie hier klicken. Nennen Sie es meine persönliche “Theorie von Allem”. Obwohl, wenn Sie nicht vorsichtig sind, können Sie mit dieser überwältigenden Technologie ein mentales Miasma durchmachen.
Aber ich habe viel von dieser Technologie in meinem täglichen Betrieb übernommen und vieles davon habe ich am besten gelernt, indem ich “es einfach mache”, wobei ich das alte spanische Sprichwort beherzige:
Denn das Schreiben über Technologie ist kein “technisches Schreiben”. Es geht darum, ein Konzept zu gestalten, eine Erzählung zu schaffen. Technologie beeinflusst Menschen sowohl positiv als auch negativ. Sie müssen eine Perspektive bieten.
Mit einem Medienunternehmen und den Besuchen all dieser wundersamen Technologie-Events trifft man Leute wie Tom Whitehall, einen “reformierten Journalisten/Rechtsanwalt”, der jetzt ein Hardware-Designer ist und den “Innovationsprozess” entmystifizieren kann (ja, dieser unerträgliche Satz). Er bietet Unternehmen brillante Grundlagen und eine klare Vision, um wirklich, wirklich innovativ zu sein. Wie ich, erhält Tom eine Unmenge an “Inhalten” (wie Schreiben oder Video oder Fotografie jetzt heißen), die er am Ende jedes Jahres auf eine Liste der “52 Dinge, die ich gelernt habe” reduziert. Mit seiner freundlichen Erlaubnis habe ich seinen Titel vor ein paar Jahren übernommen und während sich unsere Quellen manchmal überschneiden (wir besuchen viel gleiche Veranstaltungen), nehmen wir unterschiedliche Dinge von diesen Konferenzen mit.
Nun zu meinem “52 Dinge, die ich gelernt habe …”, die mit den großen Sachen beginnen:
– Der Versuch der künstlichen Intelligenz, das Gehirn nachzuahmen, ist verdammt schwer
– Die Chinesen werden den Westen bei der Entwicklung künstlicher Intelligenz übertreffen
– Algorithmen, die lange Texte zusammenfassen, werden immer besser,
ebenso wie Übersetzungssoftwares
– Das E-Discovery-Ökosystem trifft endlich auf seinen Dämon
– Computerbasierte Propaganda und das Ende der Wahrheit
Für die Ansicht der oben genannten „Großen Dinge“ und mein gesamtes Werk „52 Dinge, die ich 2017 gelernt habe,“ klicken Sie bitte hier. Bitte entschuldigen Sie. Eine Veröffentlichungsfrist und einige Probleme mit der Textformatierung haben die Übersetzung des gesamten Beitrags bisher verhindert.
* * * * * * * * * * * * * * * *
Ein Blick ins Jahr 2018:
jenseits der Rhetorik des algorithmischen Lösungsmechanismus
In immer höheren Tempo wird unsere Kultur von einer geschäftlichen Diskussion absorbiert. Es gibt „Metriken“ für Phänomene, die nicht metrisch gemessen werden können. Numerische Werte werden Dingen zugewiesen, die nicht von Zahlen erfasst werden können. Ökonomische Konzepte durchdringen Nicht-Wirtschafts-Bereiche: Ökonomen sind unsere Experten für Glück! Wo früher Weisheit war, wird jetzt Quantifizierung herrschen. Quantifizierung ist der überwältigendste Einfluss auf unser zeitgenössisches Verständnis … nun zumindest das amerikanische Verständnis … von allem. Ermöglicht wird dies durch die Vergötterung der Daten, die durch die fast unvorstellbaren Daten-Erzeugungs-Fähigkeiten der neuen Technologie ermöglicht wurden.
Die Unterscheidung zwischen Wissen und Information gehört der Vergangenheit an. Und in der heutigen Kultur gibt es keine größere Schande, als der Vergangenheit anzugehören. Abgesehen von ihrem Einfluss auf die Kultur durchdringt die neue Technologie noch tiefere Ebenen von Identität und Erfahrung, von Erkenntnis und Bewusstsein. Und wie sich der Technologismus, der nicht mit der Technologie gleichzusetzen ist, in immer mehr Bereichen des menschlichen Lebens durchsetzt, so tut es auch der Szientismus, der nicht das gleiche wie die Wissenschaft (Science) ist. Wie Virginia Eubanks in ihrem neuen Buch feststellt:
Die Vorstellung, dass die nicht materiellen Dimensionen des Lebens in Begriffen der materiellen Dimensionen erklärt werden müssen und dass nichtwissenschaftliche Erkenntnisse in wissenschaftliche Erkenntnisse übersetzt werden müssen, wenn sie als Wissen qualifiziert werden wollen, wird innerhalb und außerhalb der Universität, wo die Geisteswissenschaften als weich und unpraktisch und nicht genügend neu verunglimpft werden, zunehmend populär. Das gegenteilige Beharren darauf, dass der Ruhm der Kunst und des Denkens keine evolutionären Anpassungen sind oder dass der Verstand nicht nur das Gehirn ist oder dass Liebe nicht nur der biologische Köder für Sex ist, wird jetzt schon zu einer Art von Häresie. Auch die Ansicht, dass die stärkste Verteidigung der Geisteswissenschaften nicht in der Berufung auf ihren praktischen Nutzwert liegt – dass Leute mit dem Hauptfach Literatur gute Arbeitsplätze finden können, dass Theater ihre Nachbarschaften ökonomisch revitalisieren können – sondern in der Berufung auf ihren trotzig nicht-nützlichen Charakter, so dass Individuen mehr wissen können als die Funktion von Dingen, und ihre Unterscheidungs- und Urteilskraft entwickeln, ihre Kompetenz in Sachen von Wahrheit, Güte und Schönheit, um sich angemessen für die Entscheidungen und die Feuerproben des privaten und öffentlichen Lebens zu rüsten.
Oder wie es Carl Miller in seinem neuen Buch, Power ausdrückt:
Keine Kultur ist philosophisch monolithisch oder fördert eine einzige Auffassung vom Menschlichen. Eine Kultur ist ein erbitterter Kampf zwischen alternativen Vorstellungen des Menschlichen.
Und man sieht die inhärenten Probleme in der „Technologie des Tages“ – die Implementierung algorithmischer Entscheidungswerkzeuge, um soziale Dienste oder andere hochrangige Regierungsentscheidungen zu ermöglichen, um „so die Effizienz zu erhöhen oder die Kosten für die Steuerzahler zu reduzieren“. Was natürlich „ethisch umgesetzt“ werden soll.
Bullshit. Wie zahlreiche Referenten auf der Konferenz und dem Workshop zu Neuronalen Informationsverarbeitungssystemen (NIPS) erläutert haben … die Mega-Konferenz zur Künstlichen Intelligenz habe ich in meinen „52 Dinge, die ich 2017 gelernt habe“ … mehrfach erwähnt … der „ethische Zug zur Künstlichen Intelligenz ist bereits unterwegs“. Ein bekannter Moderator merkte an:
Bei Künstlicher Intelligenz und Ethik stehen wir vor einem ähnlichen Problem wie bei dem uralten Sicherheitsdilemma: Geschwindigkeit gegen Sicherheit. Diese Dinge und ihre kommerzielle Anwendung bewegen sich einfach zu schnell. Das Gleiche gilt für die Künstliche Intelligenz. Stets dieselbe alte Geschichte: Eine neue Technologie kommt auf den Plan, und die Gesellschaft ist oft gezwungen, zuvor nicht reguliertes Verhalten zu überdenken. Diese Veränderung tritt häufig nach der Tatsache auf, wenn wir entdecken, dass etwas fehlt. Die Geschwindigkeit, mit der diese Technologie in die Öffentlichkeit gebracht wird, kann es der Gesellschaft schwer machen, mitzuhalten. Wenn Sie versuchen, so groß wie möglich oder so schnell wie möglich zu bauen, ist es für sie einfacher Leute, die skeptischer oder besorgter sind, und Probleme damit haben, auf der Strecke zu bleiben, nicht aus Bosheit, sondern mit der Begründung „Oh, wir müssen dieses Lieferdatum einhalten“ beiseite zu schieben.
Und wir kämpfen gegen Regierungen und/oder schlechte Schauspieler, die eigennützige Ziele gegen das größere allgemeine Wohlergehen durchsetzen. Es gibt tatsächlich zur Zeit einen Krieg, der bedrohlicher ist als ein Atomkrieg. Schauen Sie sich die Entwicklung der Agenten der Künstlichen Intelligenz an, die auf so etwas wie der Universe-Plattform von OpenAI ausgebildet wurden und gelernt haben, Tausende von Online-Webumgebungen zu navigieren … und dann eingstellt werden, um auf eine Agenda zu drücken. Dies könnte im Web eine wahre Armee von intelligenten Bots und Trollen entfesseln, auf eine Weise, die den Begriff der öffentlichen Meinung als solche zerstören könnte.
Was die Unsicherheiten der AI betrifft, wie Kate Crawford anmerkte [sie äußerte den Grundgedanken bei NIPS], bauen unsere aktuellen Datensätze immer auf älteren Einstufungen auf. So bezieht sich Imagenet auf die Systematik von Wordnet. Wenn also die älteren Einstufungen inhärent unausgewogen sind, hat dies Auswirkungen auf die aktuellen Datensätze und die Unsicherheiten, die diese möglicherweise beinhalten.
In den USA werden nicht einmal die echten Kosten erfasst, gleichgültig, ob wir über gerichtliche Entscheidungsfindung sprechen (z. B. „Punktauswertung in der Risikobewertung“) oder ein Modell dafür erstellen, wer Gefahr läuft, obdachlos zu werden. Algorithmische Systeme verursachen nicht nur bei der Umsetzung Kosten. Sie verursachen Kosten für ihren Unterhalt. Sie verursachen Kosten für die Prüfung. Sie verursachen Kosten, um sich mit der Domain zu entwickeln, für die sie entwickelt wurden. Sie verursachen Kosten für die Schulung ihrer Benutzer, damit diese verantwortungsvoll mit den Daten umgehen. Vor allem machen sie die extremen Schwachpunkte und Ursachen der bestehenden Systeme sichtbar, die ein höheres Maß an Dienstleistungen erfordern. Andererseits verursachen diese Systeme vor allem einen Abzug der Steuergelder aus direkten Dienstleistungen und füllen unter dem Deckmantel der Hilfe für die Menschen die Kassen gewinnorientierter Unternehmen. Schlimmer noch, sie helfen bei der Vermeidung der Haftung, denn immer wieder kommt es vor, dass Menschen in mächtigen Positionen die Algorithmen beschuldigen.
Ja, ja, und nochmals ja. Jeder Sozialwissenschaftler, der ein Herz hat, möchte verzweifelt verstehen, wie man die Unausgeglichenheit erleichtern und ein faireres und gerechteres System schaffen kann. Es besteht natürlich der Wunsch, einfach loszulegen und zu versuchen, die Daten dort draußen zu verstehen, um das Leben der Menschen zu verändern. Aber die Datenanalyse als Retter eines kaputten Systems zu behandeln, ist beklagenswert naiv.
Dieses Vorgehen verschleiert die finanziellen Anreize derjenigen, die diese Dienste aufbauen, die deterministische Rhetorik, mit der sie ihre Umsetzung rechtfertigen, die Undurchsichtigkeit, die dadurch entsteht, dass nichttechnische Akteure versuchen, technisches Fachchinesisch zu verstehen, und die krasse Realität, wie Technologie als politisches Knüppelwerkzeug verwendet wird.
Der unmittelbar vorstehende Absatz ist eine Vereinfachung des Hauptpunkts in einem neuen Buch, das in ein paar Wochen herauskommt (Ich erhielt ein Vorabexemplar zur Überprüfung), Virginia Eubanks Buch „Ungleichheit automatisieren: Wie High-Tech-Tools die Armen profilieren, überwachen und bestrafen.“ Es zeigt die wahren Kosten dieser Systeme. Es ist eine in der Tiefe recherchierte Abrechnung mit der Art und Weise, wie algorithmische Werkzeuge in Dienstleistungen der Wohlfahrt, Obdachlosigkeit und Kinderschutz integriert werden. Eubanks geht stark auf Menschen und Familien ein, die Ziel dieser Systeme sind und erzählt detailliert ihre Geschichten und Erfahrungen. Darüber hinaus zeichnet Eubanks, gestützt auf Befragungen mit Kunden und Dienstleistern sozialer Dienste sowie Informationen von Technologieanbietern und Regierungsbeamten ein klares Bild davon, wie algorithmische Systeme tatsächlich vor Ort funktionieren, trotz aller Hoffnung, die in ihre Umsetzung einfließt.
Eubanks meidet den Begriff „Ethnographie,“ weil sie argumentiert, dass dieses Buch immersiven Journalismus und keine Ethnographie darstellt. Aus meiner Sicht als Forscher und Leser ist dies jedoch die beste Ethnographie, die ich seit Jahren gelesen habe. „Automatisierung der Ungleichheit“ macht genau das, was eine gute Ethnographie tun sollte – es bietet eine überzeugende Darstellung der kulturellen Logiken, die eine bestimmte Dynamik umgeben, und lädt den Leser dazu ein, durch die Augen einer Vielzahl betroffener Menschen, die durch die falschen Versprechungen dieser Technologien in die Irre geführt wurden, wirklich herauszufinden, was auf dem Spiel steht. Es macht die Politik und die Einsätze, die Kosten und die Hoffnung sichtbar.
Und ich liebe den Titel – ein fantastisches Backronym für AI.
Ich freue mich darauf, viele von Ihnen auf der Tech-Konferenzschaltung zu sehen. Ich wünsche ein großartiges 2018.
2 Replies to “LÄNGERE LEKTÜRE: 52 Dinge, die ich 2017 auf Technologiekonferenzen gelernt habe”