13.06.201813:24pm
AutorTania Teetz
Kategorien
Nur weil man´s kann, muss man´s noch lange nicht machen. Fünf kritische Artikel zum Thema Algorithmen.
Heute geht es um Lesenswertes, das sich mit eher subtilen Gefahren von künstlicher Intelligenz (KI) befasst. Die Artikel beleuchten einige grundsätzliche Themen, die sich rund um die Verwendung von Algorithmen ergeben. Sie sind daher geeignet, insbesondere kritische Aspekte von beispielsweise Big-Data-Modellen (Pre-Dictive-Recruiting) zu verstehen.Machine Learning als Teilbereich der KIEin Teilbereich der KI ist das sogenannte Machine Learning. IT-Systeme erkennen Muster und Gesetzmäßigkeiten und entwickeln aus diesen „Erfahrungen“ Verallgemeinerungen für neue Problemlösungen. Dies geschieht mittels komplizierter Regeln und mathematischer Modelle, den (mehr oder weniger komplexen) Algorithmen.Ethische, gesellschaftliche Fragen rund um die Nutzung von KI
Jeder Anbieter von Software sollte sich bewusst machen, dass er ethisch und moralisch verantwortungsvoll mit dem technisch Machbaren umgehen muss. Den gesellschaftlichen Fragen muss sich jede neue Technologie stellen. Die reine „Weil-es-geht-Mentalität“ darf nicht genug sein. Bei der Atombombe nicht und bei einer potenziell ubiquitär genutzten Software auch nicht. Daher ist es wichtig, sich auch mit den möglichen Gefahren auseinanderzusetzen, wenn absehbar ist, dass unsere Zukunft in jedem Lebensbereich irgendwie mit Software – und voraussichtlich mit künstlicher Intelligenz – zu tun haben wird. Wir müssen uns bewusst machen, dass eine gesellschaftlich relevante Technologie zum Beispiel Meinungen beeinflusst – nicht erst seit den Fake News.
Die Beiträge sind sämtlich aus den USA, die Artikel sind auf Englisch, daher sind sie hier kurz in Deutsch zusammengefasst.
Bill Kutik, Januar 2018
Decoding AI for HR
Bill Kutik ist seit Jahrzehnten ein echtes Schwergewicht der HR-Branche, sein Schreibstil ist äußerst kurzweilig, der Inhalt aber immer hoch informativ. Kutik startet seinen Artikel mit einem Vergleich aus den 80er Jahren mit der Ablösung monumentaler Großrechner, die in Rechenzentren herumstanden (Mainframe-Architektur), durch die verteilte Datenhaltung (Client-Server-Architektur), die mit den PCs aufkam. Noch bleibt abzuwarten, welcher Hersteller im KI-Bereich DEN Durchbruch schaffen wird – persönlich bin ich gespannt, ob es überhaupt ein einzelner Hersteller sein wird, oder ob sich auch hier die Zeiten geändert haben. Im Folgenden nennt Kutik als Beispiel den digitalen Assistenten „Olivia“, der zum Beispiel für erste Vorauswahlfragen an einen Bewerber oder zur Terminvereinbarung eingesetzt wird – aber, so schreibt er selbst, noch weit weg von tatsächlicher künstlicher Intelligenz ist. http://hreonline.com/decoding-ai-hr/Cathy O’Neil im Guardian, September 2016
How algorithms rule our working lives
Der Artikel im Guardian beschreibt eine ganze Reihe von Beispielen, in denen Algorithmen zur Beurteilung von Bewerbern oder Mitarbeitern herangezogen werden. https://www.theguardian.com/science/2016/sep/01/how-algorithms-rule-our-working-livesCathy O’Neil im Guardian, Juli 2017
How can we stop algorithms telling lies
Dieser Artikel derselben Autorin erklärt mögliche Ursachen und Wirkungen von „bad algorithms“, wie die Autorin sie nennt. Systemisch bedingt kann beispielsweise Diskriminierung stattfinden, indem unbewusst allgemeine gesellschaftlich existierende Vorurteile – zu denen es viele Beiträge, Inhalte, neudeutsch: Content, im Internet zu finden gibt – automatisch von Machine-Learning-Tools zu Mustern und Gesetzmäßigkeiten verallgemeinert werden. https://www.theguardian.com/technology/2017/jul/16/how-can-we-stop-algorithms-telling-liesLuke Dormehl, März 2018
Can an algorithm be racist?
Auch der Beitrag von Luke Dormehl beschäftigt sich mit potenziellen gesellschaftlichen Gefahren rund um den Einsatz von Algorithmen – nicht speziell im Recruiting. Der Beitrag nennt mehrere Forschungsarbeiten zu dem Thema, unter anderem der Forscherin Dr. Noble, die vor einigen Jahren die Suchfunktionen von Google unter die Lupe genommen und Erstaunliches zutage gefördert hat. Ihre Forderung ist: „Wenn man Technologie für eine Gesellschaft entwirft, sollte man eine tiefgreifende Ausbildung in Geisteswissenschaften, Humanismus und Gesellschaftswissenschaften mitbringen.“ https://www.digitaltrends.com/cool-tech/algorithms-of-oppression-racist/Monica Chin in Mashable, Februar 2018
An AI just beat top lawyers at their own game
Regelmäßig aufhorchen lassen mich auch Artikel wie dieser hier. Von wegen „nur einfache Jobs“ werden wegfallen. Rechtsanwälte stehen mit auf der Verliererliste. Natürlich geht es hier nur um einige Arbeitsvorgänge, ein Anwalt macht ja noch viel mehr. Aber dennoch zeigt das, vor welchen Umbrüchen unsere gesamte Arbeitswelt mutmaßlich steht. Ich hoffe sehr, dass auch einige komplett neue Berufszweige entstehen werden. https://mashable.com/2018/02/26/ai-beats-humans-at-contracts/?europe=true&Ganz so nachdenklich wird es in unserer Expert Session am 26.06.2018 von 12.15–13.15 Uhr im PANEL II auf dem Personalmanagementkongress nicht. Dort geht es um Einsatzszenarien für KI im Recruiting, wo die Vorteile liegen, warum Standards wichtig sind und ob die vielen Ideen in der Praxis wirklich nachhaltig nutzbar sind. Sehen wir uns dort?
Zum Start der Artikelserie:
Was ist Künstliche Intelligenz überhaupt? Definitionen, Buchtipp und Beispiele anhand weiterführender Links fasst unser Auftaktartikel zusammen:https://www.milchundzucker.de/milch-zucker-themenreihe-kuenstliche-intelligenz-im-recruiting
Autor: Tania Teetz