Dieses Audio wird automatisch generiert. Bitte lassen Sie uns wissen, wenn Sie Kommentare haben.
Im Jahr 2013 begann die Informatikabteilung der University of Texas in Austin, einen hausgemachten maschinellen Lernalgorithmus zu verwenden, um Fakultäten bei der Entscheidungsfindung über die Zulassung von Hochschulabsolventen zu unterstützen. Sieben Jahre später wurde das System aufgegeben, Es wurde kritisiert, dass es nicht hätte verwendet werden dürfen.
Der Algorithmus basierte auf früheren Zulassungsentscheidungen und sparte den Professoren Zeit. Sie haben Dinge wie den Besuch einer „Elite“-Hochschule oder Empfehlungsschreiben mit dem Wort „Beste“ als solche verwendet prognostiziertes Einkommen.
Die Universität gab an, dass das System die Zulassungsentscheidungen nie selbst getroffen habe, da mindestens ein Fakultätsmitglied die Empfehlungen prüfen würde.. Kritiker sagten jedoch, dass dadurch jegliche Voreingenommenheit bei Zulassungsentscheidungen kodifiziert und legitimiert werde.
Künstliche Intelligenz steht heute im Rampenlicht. ChatGPT, ein KI-Chatbot, der menschenähnliche Dialoge generiert, sorgte für Aufsehen und erneuerte die Diskussion darüber, welche Teile des menschlichen Lebens und der Arbeit leicht automatisiert werden könnten.
Trotz Kritik an Systemen wie dem zuvor verwendeten Austin Autonomous UniversityEinige Hochschulen und Zulassungsbehörden fordern immer noch den Einsatz von KI, um den Zulassungsprozess zu beschleunigen. Und die Unternehmen sind bereit, ihnen zu helfen.
„Es hat dramatisch zugenommen“, sagte er. Abhinand Chincholi, CEO von OneOrigin, ein Unternehmen für künstliche Intelligenz. „Die Ankündigung von GPT, der ChatGPT-Technologie, hat mittlerweile bei jedem den Wunsch nach KI geweckt.“
Doch Universitäten, die sich für KI interessieren, hätten nicht immer eine Vorstellung davon, wofür sie sie nutzen wollen, sagte er.
Chincholis Unternehmen bietet ein Produkt namens Sia an, das eine schnelle Bearbeitung von Hochschulzeugnissen ermöglicht. Extrahieren von Informationen wie Kursen und Credits. Nach der Ausbildung können Sie bestimmen, für welche Kurse ein Gast- oder Transferstudent berechtigt sein könnte, indem Sie die Daten an das Informationssystem einer Institution übermitteln. Das könne den Zulassungsbeamten Zeit sparen und möglicherweise die Personalkosten der Universität senken, so das Unternehmen.
Chincholi Er sagte, das Unternehmen arbeite in diesem Jahr mit 35 Universitätskunden zusammen und sei dabei, weitere acht umzusetzen. Es beantwortet monatlich rund 60 Informationsanfragen anderer Hochschulen. Trotz der ständigen Fragen, die einige zu den neuen Einsatzmöglichkeiten von KI haben, Chincholi glauben von sia Die Arbeit steht entschieden auf der richtigen Seite der ethischen Bedenken.
“Ist Es gibt Hinweise darauf, ob mit dem Antragsteller fortgefahren werden soll oder nicht“, sagte er. „Wir würden niemals zulassen, dass eine KI solche Entscheidungen trifft, weil das sehr gefährlich ist. Jetzt spielen Sie mit den Karrieren der Studenten, dem Leben der Studenten.“
Andere KI-Unternehmen gehen in ihrem Angebot noch etwas weiter.
Student Select ist ein Unternehmen, das Algorithmen zur Vorhersage von Zulassungsentscheidungen für Hochschulen bereitstellt.
Will Rose, Technologiedirektor bei Student Select, Er sagte, das Unternehmen beginne in der Regel mit der Betrachtung der Zulassungsrubrik einer Hochschule und ihrer historischen Zulassungsdaten. Ihre Technologie ordnet die Bewerber dann basierend auf ihrer Zulassungswahrscheinlichkeit in drei Stufen ein.
Zulassungsbeauftragte könnten Bewerber auf der höheren Ebene schneller genehmigen, sagte er, und Zulassungsentscheidungen früher treffen. Studierende auf anderen Niveaus werden weiterhin von Universitätsmitarbeitern überprüft.
Student Select bietet auch Universitäten was Rosa Dabei handelt es sich um Informationen über Bewerber. Die Technologie analysiert Aufsätze und sogar aufgezeichnete Interviews, um Hinweise auf kritische Denkfähigkeiten oder bestimmte Persönlichkeitsmerkmale zu finden.
Beispielsweise könnte ein Bewerber, der als Antwort auf eine bestimmte Frage im Vorstellungsgespräch das Wort „Flexibilität“ verwendet, „Offenheit für Erfahrungen“ zum Ausdruck bringen, eines der Persönlichkeitsmerkmale, die Student Select misst.
„Unser Unternehmen startete vor über einem Jahrzehnt als digitale Plattform für Vorstellungsgespräche, daher verstehen wir wirklich, wie man Vorstellungsgespräche analysiert und die Merkmale von Vorstellungsgesprächen versteht.“ Rosa Sprichwort. „Und im Laufe der Jahre haben wir gelernt, dass wir die gleiche Art von Analyse auch im Hochschulbereich durchführen können.“
Student Select schließt Verträge mit einem Dutzend Universitäten ab, um seine Tools zu nutzen, sagte Rose. Obwohl Er weigerte sich, sie zu nennen, und verwies auf die Vertragsbedingungen. Regierungstechnologie berichtete im April, dass die Rutgers University und die University of the Rocky Mountains zu den Kunden des Unternehmens gehören. Keine der Universitäten reagierte auf Anfragen nach Kommentaren.
Eine Blackbox?
Nicht jeder hält den Einsatz dieser Technologie durch Zulassungsstellen für eine gute Idee.
Julia Stoyanovich, Professorin für Informatik und Ingenieurwissenschaften an der New York University, empfahl den Universitäten, sich von Tools der künstlichen Intelligenz fernzuhalten, die angeblich Vorhersagen über soziale Ergebnisse treffen.
„Ich glaube nicht, dass sich der Einsatz von KI wirklich lohnt“, sagte er. Stojanowitsch, Er ist Mitbegründer und Direktor des Center for Responsible AI. „Für uns gibt es keinen Grund zu der Annahme, dass die Art, wie sie sprechen oder ob sie in die Kamera schauen oder nicht, etwas damit zu tun hat, wie gut sie Schüler sind.“
Ein Teil des Problems der KI ist ihre Unergründlichkeit. Stojanowitsch Sprichwort. In der Medizin können Ärzte die Arbeit der KI noch einmal überprüfen, wenn sie in medizinischen Bildern beispielsweise auf mögliche Krebserkrankungen hinweist. Bei der Verwendung bei Hochschulzulassungen gibt es jedoch kaum oder gar keine Rechenschaftspflicht.
Beamte denken möglicherweise, dass die Software ein bestimmtes Merkmal auswählt, obwohl es in Wirklichkeit falsch oder irrelevant ist.
„Selbst wenn wir irgendwie glauben, dass es eine Möglichkeit gibt, dies zu tun, können wir nicht überprüfen, ob diese Maschinen funktionieren. „Wir wissen nicht, wie jemand, den Sie nicht zugelassen haben, es getan hätte“, sagte er.
Wenn Algorithmen auf Daten früherer Aufnahmen trainiert werden, wiederholen sie bereits vorhandene Verzerrungen. Sie gehen aber noch einen Schritt weiter, indem sie diese ungleichen Entscheidungen sanktionieren. Stojanowitsch Sprichwort.
Darüber hinaus können Fehler in Algorithmen Menschen in Randgruppen unverhältnismäßig stark beeinträchtigen. Stoyanovich verwies beispielsweise auf die Methode von Facebook, festzustellen, ob Namen legitim sind, was das Unternehmen dazu veranlasste Heißes Wasser im Jahr 2015, weil sie indianische Benutzer von der Plattform geworfen haben.
Schließlich verfügt das Zulassungspersonal möglicherweise nicht über die nötige Schulung, um zu verstehen, wie die Algorithmen funktionieren und welche Arten von Entscheidungen daraus sicher getroffen werden können.
„Man braucht zumindest etwas Hintergrundwissen, um sagen zu können: ‚Ich bin hier der Entscheidungsträger und werde entscheiden, ob ich diese Empfehlung annehme oder sie anfechte.‘“ Stojanowitsch Sprichwort.
Angesichts des rasanten Wachstums generativer KI-Systeme wie ChatGPT machen sich einige Forscher Sorgen über eine Zukunft, in der Bewerber Maschinen verwenden, um Aufsätze zu schreiben, die von Algorithmen gelesen und bewertet werden.
Maschinell gelesene Aufsätze würden „den Schülern noch mehr Anreize geben, sie maschinell zu erstellen“, sagte er. Les Perelman, ehemaliger stellvertretender Dekan des Massachusetts Institute of Technology der automatisierte Schreibbewertung studiert hat. „Sie können nicht erkennen, ob es ursprünglich war oder nur von ChatGPT generiert wurde. Die ganze Frage der schriftlichen Bewertung hat sich tatsächlich ins Gegenteil verkehrt.“
vorsichtig sein
Benjamin Lira Luttges, Doktorand an der University of Pennsylvania Die Abteilung für Psychologie, die KI bei Hochschulzulassungen untersucht, sagte, dass menschliche Unzulänglichkeiten einige der technologiebedingten Probleme verschärfen.
„Zulassungen sind teilweise deshalb kompliziert, weil nicht klar ist, ob wir als Gesellschaft genau wissen, was wir maximieren wollen, wenn wir Zulassungsentscheidungen treffen.“ Lira sagte er per E-Mail. „Wenn wir nicht aufpassen, könnten wir KI-Systeme bauen, die etwas maximieren, das nicht dem entspricht, was wir als Gesellschaft maximieren wollen.“
Der Einsatz von Technologie habe seine Risiken, sagte er, aber er habe auch seine Vorteile. Maschinen können im Gegensatz zu Menschen Entscheidungen ohne „Lärm“ treffen, das heißt, sie werden nicht von Dingen beeinflusst, die das Aufnahmepersonal möglicherweise hat, wie etwa der Stimmung oder dem Wetter.
„Wir haben keine sehr guten Daten zum Status Quo“, Lira Sprichwort. „Die Algorithmen können möglicherweise voreingenommen sein und es gibt vielleicht Dinge, die uns an ihnen nicht gefallen, aber wenn sie besser funktionieren als das menschliche System, dann wäre es vielleicht eine gute Idee, Algorithmen schrittweise in die Zulassungen einzuführen.“
„Wenn wir nicht aufpassen, könnten wir KI-Systeme bauen, die etwas maximieren, das nicht dem entspricht, was wir als Gesellschaft maximieren wollen.“

Benjamin Lira Luttges
Doktorand, University of Pennsylvania
RosaIn Studentenauswahlerkennt an, dass der Einsatz von KI bei Zulassungen und Einstellungen Risiken birgt. Amazon bemerkte: hat seinen eigenen Algorithmus verworfen um bei der Einstellung zu helfen, nachdem festgestellt wurde, dass das Tool Frauen diskriminierte.
Aber Studentenauswahl Vermeiden Sie diese negativen Ergebnisse, sagte er. Das Unternehmen beginnt den Prozess mit einer teilweisen Prüfung der Ergebnisse früherer Kundenaufnahmen und überprüft regelmäßig seine eigene Technologie. Seine Algorithmen sind ziemlich transparent, Rosa sagte er und kann erklären, worauf er seine Entscheidungen stützt.
Die Analyse liefert in allen Untergruppen gleiche Durchschnittswerte, wird von externen Wissenschaftlern validiert und ist nicht völlig neu. Rosa Sprichwort.
„Wir nutzen interne und externe Forscher, um dieses Tool zu entwickeln, und alle diese Experten sind Auswahlexperten“, sagte er. „Unsere Modelle für maschinelles Lernen wurden anhand eines Datensatzes trainiert, der Millionen von Datensätzen umfasst.“
Über die ethischen Fragen hinaus, die mit dem Einsatz von KI bei Zulassungen verbunden sind, Stojanowitsch Er sagte, es gebe auch Praktiken.
Wer trägt die Verantwortung, wenn Fehler gemacht werden? Die Studierenden möchten möglicherweise wissen, warum sie abgelehnt wurden und wie die Kandidaten ausgewählt wurden.
„Als Zulassungsbeauftragter, als Zulassungsdirektor an einer Universität oder anderswo wäre ich sehr vorsichtig, wenn ich mich für den Einsatz eines algorithmischen Tools entscheide“, sagte sie. „Ich würde sehr darauf achten, zu verstehen, wie das Tool funktioniert, was es macht und wie es validiert wurde. Und ich würde sehr, sehr genau beobachten, wie es sich im Laufe der Zeit verhält.“