Und an diesem Punkt werde ich ins Englische wechseln . Also der Rest der Vorlesung wird auf Englisch stattfinden . Und irgendwann wird es eine Simultanverdolmetschung geben , noch nicht jetzt gleich , wir wollen sie noch ein wenig auf die Folter spannen während ich über andere Themen spreche . Doch worum es eigentlich geht , ist Unterstützung für zwischenmenschliche Interaktion bereitzustellen . Wie gestaltet sich denn eigentlich zwischenmenschliche Interaktion in der realen Welt ? Wenn wir eine Vorlesung halten oder ein Seminar veranstalten , so wie Sie es hier auf dem Bild sehen können , dann handelt es sich um eine Präsentation von einem Sprecher , doch letztendlich ist es immer noch Kommunikation zwischen Menschen . Die Leute beobachten das Geschehen auf dem Bildschirm , sie beobachten den Sprecher , der Sprecher kann Blickkontakt halten und die Leute im Publikum sehen und dadurch verbinden sich Menschen miteinander und können sehen , ob es dem Redner gelingt bestimmte Argumente oder Ideen zu übermitteln . Und selbst bei einer Vorlesung in einem so großen Hörsaal wie diesem hier , kann ich das Publikum beobachten , zum Beispiel kann ich Sie dahinten in der Ecke sehen , ich kann sehen , dass Sie mit Ihrem Nachbarn reden oder ich kann da drüben jemanden sehen , der irgendwie in der Nase popelt , jemand anderes liest vielleicht eine Zeitung oder so . Und wenn ich das sehe , dann könnte ich daraus schließen , dass das vielleicht zu langweilig oder zu langsam ist und dann kann ich in meiner Vorlesung oder Präsentation schneller voranschreiten et cetera . Oder wenn ich verwirrte Gesichter sehe , dann war meine Erklärung zu einem Algorithmus oder ähnliches vielleicht nicht ganz eindeutig . Wir verbinden uns also . Wir können am Publikum ablesen , welche Gedanken übermittelt werden . Und gleichzeitig kann das Publikum den Redner beobachten . Es ist also tatsächlich ein zwischenmenschlicher Kommunikationsprozess , selbst bei solch einer großen Vorlesung . Wenn wir in einer Besprechung sind , ist es natürlich noch eher so . Wenn wir in einer Besprechung sind und mit anderen Menschen reden , dann handelt es sich um einen sehr lebhaften Austausch . Menschen reden miteinander indem sie sprechen , aber sie zeigen auch auf Dinge , gestikulieren , zeigen Powerpoint-Folien , schauen vielleicht Gegenstände an oder Notizen auf ihrem Pult et cetera , et cetera . Im Gegensatz dazu , wie wir alle sehen konnten , ist die Interaktion zwischen Mensch und Maschine sehr verarmt und furchtbar und Sie haben das Video schon gesehen , ich muss es also nicht nochmal abspielen , aber es ist das Video , welches wir alle so toll finden , weil wir uns alle sehr gut in die Situation des armen Kerls einfühlen können , der an seinem Arbeitsplatz vor dem Computer festhängt und dieser Computer ist höchst anspruchsvoll und versteht darüber hinaus absolut nichts von dem menschlichen Kontext . Dieses Problem möchten wir also lösen und erreichen , dass ein Computer in der Lage ist , menschliche Kommunikation und menschliche Aktivitäten besser zu verstehen , damit der Computer den menschlichen Bedürfnissen besser gerecht werden kann , als in dieser furchtbaren Situation . Dann haben wir noch andere Kommunikationsprobleme , mehrsprachige Kommunikationsprobleme . Wenn Sie zum Beispiel kein Englisch verstehen ist das ein Problem , weil wenn ich hier oben Englisch spreche und Sie nur Deutsch sprechen , dann verstehen Sie möglicherweise diese Vorlesung nicht . Was können wir machen ? Wenn Sie nach China fahren , könnte es schlimmer sein . Sie sprechen möglicherweise kein Chinesisch , außer einige unserer Freunde , die chinesische Muttersprachler sind . Doch wenn Sie die Sprache nicht sprechen , können Sie sich in einer fremden Sprache verlieren , in dem was andere sagen , genauso wie in dem geschriebenen Wort in der realen Welt . Was wir also wirklich machen müssen , ist uns den menschlich-maschinellen Prozess anzuschauen , aber auch die zwischenmenschliche Kommunikation und dann sehen wir wie Maschinen diesen Prozess verbessern können . Selbst wenn wir mit einem menschlich-maschinellen Prozess beginnen , gibt es schon einiges was wir machen können , um hilfreiche Unterstützung bereitzustellen und zwar mit Modalitäten , die nicht nur aus einem einfachen getippten Text bestehen . Stellen Sie sich beispielsweise einmal die Situation mit einem Navigationssystem fürs Auto vor . Sie fahren auf der Straße und Sie haben ein bestimmtes Ziel , zu dem Sie hin wollen und zugegebenermaßen programmieren wir häufig das GPS während wir fahren und das sollten Sie natürlich nicht machen , weil es gefährlich ist . Und die Schnittstellen auf diesen Navigationssystemen sind wirklich , wirklich furchtbar , denn Sie müssen einen Buchstaben nach dem anderen eingeben und auswählen und dann einen Knopf drücken , um das Navigationssystem zu programmieren . Wäre es nicht schön , wenn man es einfach sagen könnte ? Und sagen , ich möchte gerne nach Karlsruhe , Am Fasanengarten fünf und dann programmiert das System die Navigation und führt dich dorthin . Das ist also eine der Situationen , wo moderne Dialogsysteme zum Einsatz kommen , wo die Stimmerkennung den Befehl oder die Anfrage eines menschlichen Benutzers erkennt und dann stellt das Navigationssystem die gesprochenen Navigationsinformationen bereit und genau wie davor wird der Nutzer auf einer Route navigiert . Diese einfache Fragestellung , wie man dem Navigationssystem eine Suchanfrage stellt , ist schon eine Herausforderung . Als erstes müssen wir uns damit beschäftigen , ob es sich um Umgangssprache oder spontane Sprache handelt . Normalerweise sprechen die Leute nicht besonders deutliche und saubere Sätze . Sie stottern oder formulieren unklare Sätze . Also anstelle zu sagen , wie komme ich zum Bahnhof , sagen sie möglicherweise , wie kann ich , ich muss zum Bahnhof . Wie geht also der Computer mit den Ähms um und mit dem Satz , der nicht klar formuliert ist ? Das ist eine der Herausforderungen . Eine weitere Herausforderung in einem Dialogsystem ist natürlich , wenn der Benutzer eine Information eingibt , die nicht präzise genug ist , wenn ich zum Beispiel sage , ich muss in die Beethovensaal . Gibt es wahrscheinlich mehrere Dutzend Beethovenstraßen in Deutschland . Solch eine Anfrage mit unzureichenden Informationen muss präzisiert oder genauer spezifiziert werden und in einem sogenannten Dialogsystem wäre es schön ein System zu haben , das dann sagen oder die Frage stellen kann , also wollen Sie in die Beethovenstraße in Karlsruhe oder in einer anderen Stadt ? Oder wenn es mehrere solcher Straßen gibt oder mehrere solcher Gebäude , dann benötigen Sie erneut solch ein Dialogsystem . Darüber hinaus sind die Informationen in unseren Gedanken häufig unpräzise . Zum Beispiel wissen Sie , dass es ein Platz zwischen der Kaiserstraße und dem Durlacher Tor oder dem Adenauerring ist , Sie wissen aber nicht genau wo , wenn Sie also beispielsweise zu diesem Hörsaal gegen wollen . Sie möchten also , dass das System in der Lage ist , das ein bißchen genauer zu spezifizieren , damit Sie das Navigationssystem immer noch programmieren können . Und das ist , was Dialogsysteme machen können , und bei uns im Labor ist das eine der Problematiken , bei der es um die Interaktion zwischen Mensch und Maschine geht . Wenn das also erstmal geklärt ist , können Sie eine Frage stellen , wie komme ich zum Placa Catalunya in Barcelona oder eine andere Stadt . Und das Navigationssystem wird Ihnen dann die nötigen Richtungsanweisungen geben . Ein weiterer Aspekt bei der Interaktion zwischen Mensch und Maschine , der etwas anspruchsvoller wird , ist die Interaktion zwischen Mensch und Roboter . Damit beschäftigen wir uns im Kontext des humanoiden Roboterprojekts vom Sonderforschungsbereich , dem SFB , zusammen mit dem Kollegen Dillmann , Rüdiger Dillmann und seinem Team . Und sie haben schon in einigen der gehaltenen Präsentationen gehört , dass es sich um die Interaktion zwischen Roboter und Maschine dreht . Aber auch hier wird zunächst die Interaktion dadurch verkompliziert , dass es sich um spontane Sprache handelt , aber in diesem besonderen Fall gibt es auch noch kein Mikrofon , welches beim Sprechen nah am Mund gehalten wird , sondern der Roboter ist mit einem Mikrofon ausgestattet und ein Roboter kann sich bewegen . Trotzdem es um Interaktion zwischen Mensch und Maschine geht , ist es ist also eine anspruchsvolle Aufgabe Hier geht es also darum , dass die Interaktion direkt zwischen Mensch und Maschine stattfindet . Es gibt viele verschiedene Arten der Interaktion , die wir uns auch vorstellen können . Stellen Sie sich zum Beispiel vor , Sie möchten nun über Ihren Computer Zugriff auf Informationen von Menschen haben , die nur verfügbar in Datenquellen sind , wie beim Fernsehen , Radio , Nachrichtensendungen und vielen anderen gespeicherten Ressourcen und wenn wir dann eine zwischenmenschliche Interaktion erreichen wollen , die unterstützt wird durch eine Maschine oder eine Computer Dienstleistung , dann möchten wir uns diese zwei oder drei unterschiedlichen Formen der Interaktion auch anschauen . Hier ist also ein System , welches wir hier auch entwickelt haben . Es ist ein sogenanntes Video Retrieval System . Und mit dieser Forschung beschäftigen wir uns weiterhin auch in einer multilingualen Situation . Sie wollen also eine Frage stellen , gibt es Neuigkeiten aus Karlsruhe oder zum Beispiel , ob es kürzlich einen Streik der Deutschen Bahn gegeben hat . Und Sie möchten , dass der Computer herausfindet , was in den letzten zwei , drei Tagen in den Nachrichten war . Und Ihnen nur die Informationen liefert , die zu dieser speziellen Suchanfrage passen . Das Problem in diesem Fall ist natürlich , dass die Informationen nicht als Textformat gespeichert werden , Sie können also nicht einfach danach suchen oder es googeln , aber wenn es sich ums Fernsehen oder das Radio handelt , ist es in Videoformat oder Audioformat vorhanden . Was wir also als erstes machen müssen , ist eine automatische Bilderkennung in den Daten genauso wie in den Audiodaten durchzuführen , um den Inhalt zu verstehen , damit wir dann in der Lage sind danach zu suchen und schlussendlich auch eine Zusammenfassung bereitzustellen , die , die gestellten Fragen beantwortet . Wir haben solch ein System , welches auf Englisch und Deutsch funktioniert . Wir können also tatsächlich Fragen zu englischen sowie zu deutschen Nachrichten stellen . Und dann liefert es Nachrichtenbeiträge , die zu einer bestimmten Suchanfrage passen . Die Sie vielleicht gestellt haben . Das ist also ein System , welches wir hier in unserem Labor entwickeln und welches in der Zukunft weiter erweitert und ergänzt werden soll . Jetzt möchten wir gerne auch implizite Dienstleistungen anbieten . Das ist also , das ist diese Verbindung zwischen menschlicher , Entschuldigung , Computer und Datenquellen , die Informationen von Menschen beinhalten . Nehmen wir also an wir möchten eine Dienstleistung , die die zwischenmenschliche Interaktion sofort direkt unterstützt . Darauf zielt das Chil Projekt ab . Beim Chil Projekt unterstützen wir die zwischenmenschliche Interaktion , indem wir den Menschen nicht der Macht des Computer aussetzen , sondern der Mensch die Macht über den Computer hat . Menschen sollten in ihrer Interaktion mit anderen Menschen ungebunden sein und der Computer sollte diese Interaktion beobachten und dann hilfreiche Unterstützung anbieten . Mit dieser Idee im Hinterkopf haben wir ein sogenanntes integriertes Projekt ins Leben gerufen , welches von der Europäischen Kommission gefördert wird , es ist eines der größten Projekte in diesem Bereich im sechsten Rahmenprogramm der Europäischen Kommission . Wir haben zusammen mit der ITB Fraunhofer Gesellschaft das hier in Karlsruhe koordiniert . Und wie Sie sehen können , hat eine große Anzahl an Laboren teilgenommen , fünfzehn Labore in neun Ländern auf der Welt , die sich mit diesem Problem beschäftigt haben . Was wir mit zwischenmenschlicher Kommunikation meinen , Kommunikation oder Unterstützung durch Computer bei der zwischenmenschlichen Kommunikation . Ich möchte Ihnen einige Beispiele nennen . Das Erste , wir könnten natürlich eine Besprechung abhalten und in diesem Fall wäre ein Roboter bei der Besprechung anwesend und anstelle , dass die Menschen direkt mit dem Roboter sprechen , wäre es doch besser , wenn die Menschen mit anderen Menschen sprechen und der Roboter hört bei dem Gespräch zu und bietet hin und wieder eine Hilfestellung . Wenn dem Roboter also auffällt , dass die Menschen Durst bekommen , sollte er gehen und wenn es Morgen ist Kaffee holen und am Abend vielleicht Bier und viele andere Dinge , die Ihnen vielleicht einfallen , wie beispielsweise ausgedrucktes Informationsmaterial und so weiter . Ein weiteres Problem ist das sogenannte , was wir einen Konnektor nennen . Die Idee ist folgende , wir hatten alle schon das Problem , dass wir an einer Besprechung teilnehmen und das Handy von jemandem klingelt und das ist nicht nur nervig , weil das Handy klingelt , sondern kann diese Person kann der Besprechung erstmal nicht weiter folgen und wenn die Person dann sagt , ich kann gerade nicht sprechen , ich rufe dich später zurück und dann hinterlassen Sie Nachrichten und dann rufen Sie Ihre Freunde zurück und dann sind sie beschäftigt et cetera . Es ist also ziemlich nervig , unnötige Ablenkung , die Zeit vergeudet und ein Problem ist . Wir möchten das gerne ändern und eine andere Art der Hilfestellung bereitstellen , eine Dienstleistung von einem Computer zu haben , die zwei Menschen miteinander verbindet , wenn sie beide Zeit haben . Wenn ich also den menschlichen Butler oder menschlichen Sekretär habe , weiß er oder sie , wann ich beschäftigt bin oder Zeit habe . Und kann dann einen Anruf durchstellen oder eine Verbindung herstellen , wann es passend ist . Warum können wir keine Maschinen haben , die das für uns erledigen ? Was auch sehr häufig passiert ist , wenn wir mit anderen Leuten zusammen sitzen und wir ihre Namen vergessen . Also ich weiß ich habe sie schon mal getroffen , aber ich erinnere mich nicht an ihren Namen und dann wäre es schön , wenn ich eine Maschine hätte , die in mein Ohr flüstert und sagt , gut das ist Paul und du hast ihn vor einem Jahr bei solch einer Besprechung kennengelernt und über das folgende Thema habt ihr gesprochen . So etwas haben wir nicht und deshalb sind wir immer peinlich berührt , wenn jemand sagt , ah Hallo , wie geht es Ihnen und dann erinnern Sie sich nicht mehr daran , wann Sie die Person getroffen haben und um wen es sich handelte und das sind Erfahrungen , die wir auch machen und es wird noch schlimmer , wenn Sie älter werden . Und deshalb wäre es schön eine Stütze dieser Art für das menschliche Gedächtnis zu haben . Eine weitere Idee und eine weitere Dienstleistung der zwischenmenschlichen Interaktion ist , wenn Menschen verschiedene Sprachen sprechen . Als Erstes möchten Sie vielleicht , dass das was Sie sagen für die andere Person übersetzt wird . Aber gleichzeitig möchten Sie vielleicht auch einem Gespräch zwischen zwei Menschen zuhören und sehen , ob dieses Gespräch übersetzt werden kann . Es gibt also nichts Schlimmeres , als bei einer Besprechung in einer fremden Sprache dabei zu sein und die Leute sitzen zusammen und dann sagen sie Alex Waibel und Sie haben Ihren Namen gehört , aber Sie wissen nicht was sie über dich gesagt haben . Also das ist furchtbar und Sie würden gerne wissen , was gesagt wurde . Und erneut wäre es schön , wenn es eine Computerdienstleistung geben würde , die das für Sie erledigt . Ziehen wir also kurz in Betracht , was wir benötigen um solche Dienstleistungen zu entwickeln , damit wir tatsächlich Maschinen bauen können , die die das alles erledigen . Das wäre also der Traum , das wäre die ideale Situation , die wir erreichen möchten , tatsächlich hilfreiche Maschinen zu haben , die unsere Bedürfnisse verstehen und die Situation in der wir uns befinden . Wir nennen das kontextbezogene Systeme , also stellen Sie sich vor , Sie befinden sich in einem bestimmten Kontext und die Maschine soll diesen menschlichen Kontext verstehen , wo wir sind , sie sollte verstehen , dass wir alle nun in einem Hörsaal sind , sie sollte verstehen , dass eine Vorlesung gehalten wird , sie sollte verstehen , dass ich eine bestimmte Person anschaue oder ins Publikum blicke et cetera , et cetera . Damit das alles funktioniert , berücksichtigen Sie das einfache Beispiel , wenn ich , wenn ich bei einer Besprechung nicht anwesend sein konnte und sie waren in dieser Besprechung und ich würde Sie danach fragen , nach der Besprechung , warum ist Joey wegen dem Budget auf Bob wütend geworden ? Es ist eine einfache Frage , die Sie als Mensch leicht beantworten könnten , wenn ich Ihnen diese Frage nach der Besprechung gestellt hätte . Aber stellen Sie sich vor , was nötig wäre , damit eine Computer diese Frage beantworten könnte . Wozu müsste ein Computer alles in der Lage sein . Über welche Technologien müsste er verfügen ? Gut , als Erstes müsste er überhaupt registrieren , dass Joe und Bob da waren . Er müsste also in der Lage sein Menschen zu identifizieren , ihre Gesichter zu erkennen , ihre Stimme zu erkennen , zu erkennen wer sie sind . Müsste wissen , dass Joe's Emotion Wut war , müsste in der Lage sein zu wissen , dass es sich um einen emotionalen Ausbruch handelt . Müsste wissen , dass Joe sich an Bob gerichtet hat , als er wütend wurde . Richtig ? Wenn ich Sie anschaue oder Sie und ich werde sehr wütend , dann muss jemand in der Lage sein zu erkennen , dass ich Sie angeschaut habe . Sie wissen , dass ich Sie gerade anschaue . Und ich weiss , dass Sie mich anschauen . Also diese außergewöhnliche menschliche Fähigkeit zu erkennen , wen wir anschauen , ist wirklich beeindruckend , weil sie alle da hinten sitzen . Zum Beispiel hat sie ihre Augen geschlossen , sie schläft da drüben auf ihrem Stuhl . Und das kann ich von hier aus sehen . Und ich kann sehen , dass Sie hier oben das mit Ihrem Arm machen . Ich kann also all diese Dinge darüber sagen , was Sie da im Publikum machen . Und das ist eine außergewöhnliche Fähigkeit , weil wir das alles auf eine weite Entfernung machen . Und wir können so viel über die andere Person sagen , einfach nur indem wir sie anschauen . Also Wut , Aufmerksamkeitsfokus , mit wem rede ich , es ist wichtig das zu wissen oder ? Wenn ich eine Umgebung habe , die wirklich kontextbezogen ist und ich sage etwas zu Matthias hier darüber , dass wir sicher gehen sollten , dass wir unsere Daten nicht löschen . Jetzt wollen Sie nicht , dass der Computer zuhört und sagt löscht unsere Daten und dann löscht er alle meine Daten , nicht wahr . Er sollte wissen , dass ich mit Matthias über etwas ganz anderes geredet habe . Und er sollte das nicht jetzt sofort machen . Das sind kontextbezogene Systeme , es muss den Kontext in dem wir uns befinden verstehen und warum wir das sagen , was wir sagen . Und dann als Letztes , aber nicht weniger wichtig , das Diskussionsthema Budget und warum das passiert und was sind die Dinge über die wir sprechen und so weiter . Also um das alles zu entwickeln , um das alles zu entwickeln benötigen wir Spracherkennung . Wir müssen die Sprecher erkennen , Sprecheridentifikation . Wir müssen die Emotion identifizieren , Emotionserkennung oder Emotionsidentifikation . Genre erkennung , erkennen , ob Menschen verhandeln , eine Vorlesung geben und so weiter . Sprachidentifikation , welche Sprache wurde hier gesprochen . Zusammenfassungen , Themen , Handschrifterkennung . Visuelle Erkennung der Identität von Menschen nach ihren Gesichtern , Gesten , Körpersprache , Gang , Gesichter und Blicke und Posen et cetera , Gesichtsausdrücke und Aufmerksamkeitsfokus . Es gibt eine lange Liste , die wir benötigen , damit wir in der Lage sind Dinge zu erkennen und zu verarbeiten . Und das sind alles kognitive Systeme , Typsachen , mit denen Sie sich im Unterricht beschäftigt haben , nämlich alle diese verschiedenen Dinge zu tun . Zum Beispiel haben wir uns mit der Spracherkennung beschäftigt , aber anhand der Folien können Sie sehen , dass das nur eine von vielen verschiedenen Kommunikationsmodalitäten ist , die wir nutzen . Wir nennen das also das wer , was , wo , warum und wie der menschlichen Kommunikation . Warum nennen wir das so ? Weil , wenn ich zum Beispiel sage , wer da ist , muss ich die Person identifizieren und dazu bin ich in der Lage , indem ich ihr Gesicht erkenne , aber ich kann das auch machen , indem ich den Sprecher an der Stimme erkenne . Anhand vieler anderer biometrischer Marker kann ich auch erkennen , wer diese Person ist . Es ist also multi modal , es handelt sich gewöhnlich um eine Entscheidung , die wir treffen , basierend auf mehreren Informationen . Was ist passiert , was wurde gesagt , wo ist die Person , warum und wie interagieren sie miteinander . All diese Dinge sind wichtig . Also in unserem Labor hier in Karlsruhe , genauso wie in Carnegie Mellon und viele andere Partner des Chil Projekts bei IBM , bei Irst in Italien , AIT in Griechenland und UPC in Spanien . Sie alle konstruieren Räume wie diesen , die ausgestattet sind mit vielen Kameras und vielen Mikrophonen . Und sie können eine Veranstaltung , die in diesem Raum stattfindet aufnehmen und wir haben Aufnahmen dieser Veranstaltungen , Seminare und im Grunde sind sie jetzt verfügbar in einer europäischen Organisation , die Daten verteilt und es ist zu einem Maßstab geworden , an dem wir nun diese Algorithmustypen ausprobieren können . Wie sehen die Daten aus ? Die Daten nehmen Seminare auf , die in unserem und in anderen Laboren stattfinden , Labore innerhalb des Chil Projekts . Und hier sehen Sie ein Beispiel eines Seminars , welches in unserem Labor stattgefunden hat . Und was uns interessiert ist daraus gewisse Informationen zur menschlichen Kommunikation herauszuziehen , wie wer da ist , worauf zeigt diese Person , was sagt er , mit wem spricht er , wohin geht er , wo ist er , wie sieht die Umgebung aus , was ist die , wie sieht die Gesprächssituation aus , et cetera , et cetera . Also wie können wir das alles beantworten ? Im Chil Projekt haben wir all diese Fragen herunter gebrochen auf tatsächliche Forschungsaspekte , auf tatsächliche Forschungsprobleme und diese Forschungs Gegenstände wie das audiovisuelle Orten von Personen , das Orten von Händen und Gesichtern , animierte soziale Akteure , Fernfeldspracherkennung et cetera , das sind tatsächliche Forschungsprojekte , über die Sie eine Diplomarbeit oder eine Dissertation schreiben können . Jedes davon ist so kompliziert , dass wir ein Dutzend verschiedener Dissertationen am Laufen haben , die sich mit verschiedenen Bereichen dieses Problems beschäftigen . Also das ist enorm und es ist auch natürlich nichts , was eine einzelne Person tun kann . Wir haben viele Leute , die an diesen Forschungsproblemen arbeiten , auch in den anderen Laboren , die an dem Chil Projekt teilnehmen . Das sind also Bemühungen von einem großen Konsortium an Forschern und Mitarbeitern . Das sind also einige Videos , die ich abspiele , aber wir werden sie tatsächlich gleich in der Realität sehen , wir haben nämlich einige der Demonstrationen mitgebracht . Was Sie hier oben rechts zum Beispiel sehen ist die Gesichtserkennung , wie sie in unserem Labor durchgeführt wird , wenn Leute durch die Tür kommen , erkennt eine Kamera sie und identifiziert wer sie sind . Oben links sehen Sie einen Personenortungsalgorithmus . Hier ist die Idee , immer den Sprecher in einem Seminar zu orten . Hier unten sehen sie die Aufmerksamkeitsfokusortung , das ist auch eine faszinierende Angelegenheit , denn Sie möchten wissen mit wem jemand spricht oder wen jemand anschaut . Also wenn ich hier rüber schaue , dann möchten Sie in der Lage sein zu wissen oder abzuleiten , dass ich in diese Richtung rede oder wenn ich mich umdrehe und ich schaue in diese Richtung . Tatsächlich machen wir das also , indem wir automatisch visuell die Gesichter und Kopfhaltungen von Menschen verarbeiten und dann setzen wir kleine Pfeile auf ihr Gesicht , um sagen zu können in welche Richtung sie eigentlich schauen und mit wem sie eigentlich reden . Sie kennen alle das Sprichwort , wenn Blicke töten könnten . Wir könnten also tatsächlich solche Systeme herstellen , also passen Sie auf . Nur ein Scherz . Wir werden hier aufgenommen , also ich möchte keine Aufnahme von mir haben in der ich so etwas sage , wenn es nur eine Scherz ist . Wie dem auch sei , hier ist eine weitere , eine weitere Demonstration , wo diese Dinge verbunden werden . Wenn Sie nun einen bestimmten Lichtschalter anschauen und sagen wir Sie schalten den aus , haben Sie drei Informationen . Eine ist , dass ich etwas sage , das Wort Schalter und ich sage , schalten Sie den aus , aber ich schaue auch in diese Richtung und zeige mit meiner Geste . Wir benötigen all diese Informationen , wir müssen wissen wo meine Fingerspitze ist , wir müssen wissen in welche Richtung mein Gesicht zeigt und was ich sage und all diese Dinge integrieren , damit wir solche Dienste herstellen können . Also hier in dieser Demonstration können Sie das sehen , in der tatsächlich Kai , der gleich hier drüben sitzt , die Lichter tatsächlich anschaltet und ausschaltet und in unserem Labor verschiedene Dinge bedient . Also ich denke da ist eine Demonstration , die wir kurz unterbrechen und zeigen können . Ich denke wir könnten das jetzt machen . Also während sie gestartet werden , Ok . Alles klar . Offensichtlich werden dann alle diese verschiedenen Verarbeitungsalgorithmen mit einer Sicherung kombiniert . Wenn Sie also zum Beispiel das Problem berücksichtigen , zu sagen , wenn wir eine Besprechung haben und ich möchte wissen , wer die Leute in dieser Besprechung sind , müssen Sie ihre Gesichter erkennen , Sie können aber auch ihre Stimme erkennen . Und offensichtlich können wir die beiden verbinden und nicht immer können Sie sich ganz sicher sein , denn in einer offenen Besprechung könnte ich auch gar nichts sagen , dann ist die Sprecheridentifizierung nicht hilfreich . Und in einer Besprechung könnte ich zum Beispiel auch das machen , was unsere Freunde hier machen , nämlich nur ihre Hand vor ihre Nase halten und von einem visuellen Standpunkt ist es dann schwierig ihre Gesichter zu erkennen . Also dieses opportunistische Informationssammeln , das relevant ist , ist offensichtlich eines der Probleme . Bei mir geht's nie so besonders gut , es hat immer Probleme mit der Glatze . Ok . Ganz herzlichen Dank , auch hierfür So , die Frage stellt sich natürlich mit all den tollen technischen Sachen , die man hier machen kann . All das funktioniert natürlich immer noch nicht perfekt und man sieht also wie aufwendig und wie schwierig das ist , etwas was der Mensch eigentlich mit , mit überraschender Leichtigkeit als Kind schon lernt Personen zu identifizieren und so weiter , aber ich denke bei uns im Kopf laufen auch Lernalgorithmen ab die immer besser werden je älter man wird . Und so ist das natürlich eine deutliche Herausforderung zu schauen , dass wir Algorithmen oder Programme haben , die das so ähnlich tun . Lassen Sie mich noch eine weitere Sache hier zeigen . Die , was nun interessant ist bei all diesen Herausforderungen , ist wie wir diese verschiedenen Verarbeitungsschritte zusammenziehen in weitere Systeme oder Komponenten , die auf mehreren solchen Informationsquellen aufsetzen . Wenn ich zum Beispiel mit einer Kamera Bilder aufnehme , dann kann ich natürlich auch mit Mikrophonen den Sprecher versuchen zu identifizieren . Ich kann Mikrophonen versuchen zum Beispiel , die Zähne zu beschreiben , es ist ja im Raum nicht nur ein Sprecher sondern das Telefon mag ja klingeln oder die Türe geht auf und zu , die Türe schlägt , die Türe kann man auf und zugehen sehen . Und all diese Information ist natürlich relevant um dann zum Beispiel Aktivitäten in einem Raum zu erkennen . Nun auch das haben wir jetzt mit diesen Sachen machen können . Das ist hier ein Video von einem activity analysis oder activity detection . Was Sie hier sehen ist im Wesentlichen die Aktivitäten in mehrerer unserer Büros . Dann wechseln wir ins Englische , damit jeder hier folgen kann . Was sie also hier sehen ist die Aktivitätsanalyse , die von Kameras und Mikrophonen in unseren Büros durchgeführt werden , in unserem Gebäude . Also mehrere Studenten haben natürlich zugestimmt , das wurde nicht ohne ihre Zustimmung gemacht . Aber sie haben zugestimmt , dass in ihren Büros Mikrophone und Kameras angebracht wurden und diese Mikrophone und Kameras haben dann erkannt , wenn Leute beschäftigt waren , ob sie eine Besprechung abhalten , ob sie Schreibtischarbeit erledigen , ob sie sich untereinander austauschen , ob niemand im Büro ist und so weiter . Also hier zum Beispiel sehen sie jemanden an seinem Schreibtisch , sie sehen , dass die Schreibtischarbeit hier die wahrscheinlichste Hypothese ist . Und dann sehen Sie gleich , dass jemand durch die Tür hereinkommt und mit der Person ein Gespräch beginnt und wie Sie sehen , wird ganz plötzlich die Wahrscheinlichkeit einer Besprechung größer als die Schreibtischarbeit . Wahrscheinlicher , weil Menschen miteinander sprechen . Und all das wird durch eine Kombination von Mikrophonen und Bildern erreicht , die hier in diesem Raum gesammelt und erkannt werden können . Also natürlich , wozu werden solche Dinge benötigt ? Solche Hilfestellungen zu haben , die Aktivität analysieren zu können , kann zum Beispiel dann hilfreich für Roboter sein , wenn Sie mit diesem Roboter interagieren oder wenn Sie einfach mit anderen Menschen sprechen und ein Roboter , oder in Besprechungen , wenn Sie eine hilfreiche Dienstleistung bereitstellen . Hier ist eine weitere Integration solcher Fähigkeiten in einem Roboter , mit dem einer der Forscher spricht und der Roboter führt bestimmte Aktionen aus , basierend auf Dialog und Erkennung des , des Menschen , der zum Beispiel auf bestimmte Objekte zeigt und bestimmte Instruktionen gibt . Wenn wir nun Sprache erkennen wollen , wird eine der Schwierigkeiten der Spracherkennung durch die Tatsache verstärkt , dass ein , ein sprachliches Ereignis , wie eine Vorlesung tatsächlich schwierig zu erkennen ist . Das ist eine Datenbank , die translinguale englische Datenbank genannt wird , TED oder manchmal wird sie liebevoll auch als die furchtbare englische Datenbank bezeichnet , denn sie wurde auf einer internationalen Konferenz aufgezeichnet und jeder auf dieser internationalen Konferenz hat mit einem unterschiedlichen Akzent gesprochen . Und somit ist die Tonqualität eher schlecht und die , und die Fehlerraten , und wie sie sehen können , sind die Fehlerraten relativ hoch , wir können sehen , dass Vorträge mit einem fremden Akzent wirklich schwierig sind , besonders wenn die Mikrophonsituation schlecht ist und der Sprachstil spontan . Wenn Sie das alles zusammen nehmen , sehen Sie , dass Spracherkennung tatsächlich ziemlich schwierig ist , aufgrund des Grades der Spontanität . Wenn ich zum Beispiel eine Vorlesung halte , dann spreche ich in dieser Vorlesung spontan und währenddessen zögere ich , ehs und ähms , schlecht formulierte Sätze . Und vor allem ist das Gesprächsthema sehr speziell . In einer Vorlesung geht es immer um ein spezielles technisches Thema und das wird nicht von dem typischen Vokabular des Nachrichtensendungen abgedeckt . Also damit ist eines der Dinge , die Sie sich hier merken sollten , dass wenn Sie eine Erkennung für Nachrichtensendungen haben , die den Nachrichtensprecher in einer Nachrichtensendung , dem Fernsehen oder Radioprogramm erkennt , unsere Fehlerraten heutzutage ziemlich gut sind . Wir können Fernsehprogramme erkennen mit einer Fehlerrate von besser als zehn Prozent , eine Fehlerrate niedriger als zehn Prozent , vielleicht eine fünfprozentige Fehlerrate . Wenn wir allerdings eine offene Besprechung aufnehmen , in der jeder mit jedem diskutiert und wir Mikrophone verwenden , die keine Nahbesprechungsmikrophone sind , wie das , was ich hier trage , sondern vielleicht so ein Tischmikrophon , dann ist , wie Sie sehen können , die Fehlerrate erheblich höher . In solch einem Fall , könnte Ihre Fehlerraten sogar bei fünfzig Prozent liegen . Nichtsdestotrotz gibt es noch eine Menge offener Fragen in der heutigen Spracherkennung , wenn es darum geht , wie wir das erfolgreich durchführen können . Nun , warum ist das so ? Das liegt natürlich teilweise darin begründet , dass wir ein spezielles Vokabular in speziellen Vorlesungen verwenden , aber auch daran , dass Vorlesungen und spontane Sprache eher schlecht und nachlässig formuliert wird . Wenn wir also zum Beispiel die Aufnahme einer Besprechung haben . Das stammt also von einer echten Besprechung an der Carnegie Mellon , bei der der Sprecher sagte , ich denke , dass sie versucht haben Einfluss zu nehmen , wenn Sie aber die Erkennung durch eine Maschine durchführen lassen , sind die Ergebnisse eher mangelhaft . Wenn Sie nun demselben Sprecher , der diesen Satz in der Besprechung gesagt hat , dasselbe Mikrophon geben und ein manuelles Transkript , von dem was sie in der Besprechung gesagt hat und Sie bitten diese Sprecherin ihren eigenen Satz nochmal vorzulesen , also sie bitten sie den Satz , den sie in der Besprechung gesagt hat vorzulesen , so hört es sich an und Sie können sehen , dass der hier unten automatisch erkannte Satz viel besser als der hier oben ist . Die Fehlerrate bei vielen Daten einer solchen erneut gelesenen spontanen Rede ist nur halb so hoch wie die Fehlerrate der tatsächlichen spontanen Rede . Also erneut gelesene und spontane Sprache unterscheiden sich erheblich hinsichtlich der Schwierigkeit bei der Spracherkennung und natürlich ist der Grund dafür , dass wenn Menschen spontan sprechen , sie viele Wörter verschlucken oder viele Wörter auslassen . Nun stellen Distanzmikrophone eine weitere Herausforderung dar . Wenn ich nun also ein Mikrophon verwende , welches beim Sprechen nah am Mund gehalten wird , ist die Erkennung beider Sprecher und der Sprache viel leichter , als wenn ein drahtloses Mikrophon auf dem Tisch oder an der Wand angebracht ist . Nun zurück zu der Frage , die wir uns ursprünglich gestellt haben . Wenn wir ein System haben , welches versucht , all diese Erkennung von Gesichtern , Erkennung des Aufmerksamkeitsfokus , Spracherkennung , Sprechererkennung et cetera , et cetera durchzuführen , dann müssen wir Fortschritte erzielen , die auf einem soliden Vergleichsindex basieren . Eine Möglichkeit , wie das gemacht werden kann , ist diese olympischen Spiele der Spracherkennung oder visuellen Wahrnehmung et cetera auszutragen . Und das wird nun in zwei Workshops gemacht , die jedes Jahr stattfinden , wo Leute eine unbekannte oder eine geheime Testsequenz von einer tatsächlichen Besprechung bekommen . Und verschiedene Gruppen versuchen dann diese Spracherkennung oder das Orten des Aufmerksamkeitsfokus und so weiter durchzuführen . Und die Algorithmen verschiedener Forschungsteams werden dann evaluiert und dann bei dem Workshop werden die Ergebnisse besprochen und der Gewinner des Wettbewerbs wird dann natürlich gezeigt und das hat zu einer enormen Beschleunigung der Leistung oder Verbesserungen geführt , also gewissermaßen in so einem Ausmaß , dass wir nun tatsächlich diese Fragen beantworten können , wer da war , wer sie sind , wo sie hingehen , mit tatsächlichen Zahlen und tatsächlichen Leistungsangaben , wo wir bei sechsundsiebzig Prozent oder achtzig Prozent der Male sagen können , wo die Person ist oder wer die Person ist . Und wir können auch Fortschritte nachvollziehen und wissen wie viel besser diese Algorithmen im Laufe der Zeit werden . Nun sind viele dieser Dinge offensichtlich schwierig , also jeder dieser individuellen Verarbeitungsalgorithmen ist sehr schwer korrekt zu entwickeln und dann gute Leistungen damit zu erzielen und ein Aspekt , auf den ich mit dieser Folie besonders hinweisen möchte ist , wenn wir uns tatsächlich eine offene Umgebung anschauen , wie Vorlesungen und Seminare , dann betrachten wir auch realistische , reale Daten . Viele der vergangenen Datenbanken waren künstlich . Das Menschen direkt vor der Kamera sitzen und dann wird das Gesicht fotografiert oder so etwas . Aber bei diesen Daten , die wir uns anschauen , ist es viel schwieriger , weil die Leute den Kopf drehen , sie halten ihre Hand vor ihre Gesichter , sie formulieren nachlässig , es sind reale Daten , wie Menschen mit anderen Menschen sprechen . Kommen wir nun also zurück zu der Frage der Chil Dienstleistungen . Was können wir mit all dem machen ? Welche Art von Dienstleistungen können wir entwickeln ? Und ich denke , Sie werden sehen , dass es eigentlich sehr viel Spaß macht , diese interessanten Systeme zu entwickeln . Wir haben also über den Konnektor gesprochen und dazu würde ich Ihnen gerne ein Video zeigen . Ok , so sieht die Welt momentan aus , aber schauen wir nun wie sie aussehen könnte . Also Sie sehen , Sie sehen wie eine Konnektordienstleistung in sozialen Beziehungen Hilfe leisten könnte . Gut , nun zu noch einem weiteren Thema , das uns interessiert , dabei handelt es sich natürlich um die Informationsbeschaffung . Was Sie also hier gesehen haben ist Unterstützung bei zwischenmenschlicher , oder Unterstützung durch den Computer bei zwischenmenschlicher Interaktion in einer Situation , in der wir auf grundlegende Hilfestellungen zurückgreifen , aber wir können auch kreativer sein und Hilfestellungen entwickeln , die nur auf eine sehr private Art und Weise beschaffen werden können . Wenn Sie also beispielsweise personalisierte Informationen beschaffen möchten , könnten wir zum Beispiel steuerbare Projektoren aufstellen , die Informationen vor jemanden an die Wand beamen . Oder das ist eine faszinierende Hilfestellung , es ist eine Frontscheibenanzeige bei Brillen . Sie könnten also beispielsweise , wenn es peinlich ist , nach dem Namen von jemandem zu fragen , dessen Namen Sie vergessen haben , könnten Sie es sich einfach diskret in Ihre Brille beamen lassen , sagen wir das ist dann Muntz und Colds und er arbeitet für Sie und deshalb sollten Sie sich seinen Namen merken . Oder das ist ein sehr guter Freund von mir , den Sie gestern erst getroffen haben und Ihre Senilität führte dazu , dass Sie ihn vergessen haben . All das wäre also sehr schön , wenn es diskret gemacht werden würde , also beispielsweise private Informationen , die auf Ihren Brillengläsern erscheinen oder eine gezielte audiovisuelle Hilfestellung , die einen Audiobeam an Ihr Ohr beamt , sodass nur Sie es hören können und wir werden Ihnen das gleich im Kontext von Übersetzungsdienstleistungen zeigen . Nun noch eine weitere Sache , die ich Ihnen gerne zeigen würde , ist eher etwas verrückt . Gehen wir davon aus , Sie befinden sich in einer Besprechung und das Telefon klingelt und es ist wirklich dringend , dass Sie mit der Person am anderen ende sprechen , aber Sie können nicht sprechen , denn es stört die anderen Teilnehmer und es könnte auch etwas persönliches sein , was sie sagen möchten . Wäre es dann nicht schön , wenn Sie geräuschlos oder leise am Telefon sprechen könnten , sodass die anderen Leute Sie nicht hören ? Wie könnte das also bewerkstelligt werden ? Es sollte wie Science-Fiction sein . Gut , wir arbeiten gerade an der elektromyographischen Spracherkennung , eigentlich wird diese Aufgabe jetzt von Tanja Schultz übernommen , die erst dieses Sommersemester hier an unserer Fakultät angefangen hat . Es ist eine Aufgabe , bei der die Idee ist , die Muskelbewegung in der Wange zu erkennen , während jemand Sätze formuliert , ohne diese laut auszusprechen . Wenn ich also meinen Mund bewege , ich bewege meinen Mund , wenn Sie aber kein guter Lippenleser sind , können Sie es nicht erkennen . Was ich gesagt habe und es ist sicherlich nicht laut . Aber mit elektromyographischen Signalen können wir tatsächlich erkennen , was die Person gesagt hat und dann eine synthetische Übertragung über die Telefonverbindung erzeugen . Irgendwas stimmt mit dem Video nicht . Es gab ein Problem mit dem Video . Aber Sie bekommen eine Vorstellung , er bewegt seinen Mund und diese Bewegung wird in Form der Wörter , die gesprochen wurden erkannt und die Wörter werden in Form von Stimme über den Telefonkanal übertragen , sodass die andere Person am anderen Ende tatsächlich die Stimme hört , des Satzes , der gesagt wurde . Es ist also möglich , potentiell , in der Zukunft , in einer Besprechung zu sitzen und ein Gespräch zu führen , ohne dass jemand anderes es hört . Das wird furchtbar sein , denn dann werde ich hier ein Publikum voller Leute haben , die mit ihren Freunden sprechen und gut , wie auch immer . Kommen wir also zum nächsten und letzten Thema , welches ich Ihnen gerne zeigen würde , Sprachunterstützung über Sprachen hinweg . Was können wir also machen , wenn wir die linguistischen Barrieren überbrücken wollen ? Das ist heutzutage natürlich ein sehr interessantes Thema , weil in der heutigen Welt viele Sprachen gesprochen werden , Menschen nehmen an verschiedenen Aktivitäten teil , im Handel und der Lehre und in vielen , sie arbeiten mit Partnern in anderen Ländern und offensichtlich ist das wichtig , weil wir zunehmend mit Menschen in anderen Ländern arbeiten und kommunizieren , aber gleichzeitig müssen wir dann eine Sprache sprechen , die wir nicht verstehen können . Also heutzutage ist die gängigste Lösung natürlich , dass jeder Englisch lernt und jeder mit jedem Englisch spricht , aber das ist hinsichtlich der kulturellen Vielfalt ein Problem und dann auch die , die Details und die Qualität der Kommunikation kann leiden , dann hätten Sie gerne etwas , um diese Sprachbarrieren zu überbrücken und es Menschen ermöglicht miteinander in ihrer eigenen Sprache zu kommunizieren , ohne dass sie ihre sprachliche Identität verlieren . Und die Frage lautet , wie können wir das machen ? Können wir das mit Technologie erreichen ? Wenn wir nun die Frage stellen , warum ist das schwierig ? Warum ist eigentlich die Übersetzung von Sprache oder sprachliche Kommunikation schwierig ? Dann wird deutlich , dass dies durch Doppeldeutigkeit verursacht wird . Und wir haben in der Vorlesung zur Spracherkennung schon gesehen , dass Spracherkennung schwierig ist , aber Übersetzung ist auch schwierig und hier oben sehen Sie viele der typischen Scherze , die die Leute erzählen , um zu zeigen wie schwierig es ist zu erkennen , zu übersetzen und Sprache zu verarbeiten . Wenn Sie also beispielsweise übersetzen möchten , der Geist ist willig , aber das Fleisch ist schwach , könnte es falsch verstanden werden oder falsch übersetzt werden in der Wodka ist gut , aber das Fleisch ist verfault . Aus syntaktischer Sicht hat der englische Satz time flies like an arrow sechs verschiedene Interpretationen oder sechs verschiedene Syntaxen . Erstaunlich , denn wir würden nur an eine denken . Phonetik kann sehr doppeldeutig sein , der englische Satz give me a new display , könnte give me a nudist play sein . Es ist dieselbe akustische phonetische Kette , aber es ist eine unterschiedliche Wortsequenz . Und wie Sie schon gesehen haben , arbeiten wir mit einigem davon , offensichtlich mit dem statistischen Sprachmodell , Modellen oder mit statistischen Modellen , die eine Wahrscheinlichkeit jeder der verschiedenen Hypothesen zuordnen und diese dann als die besseren Lösungen herausbringen . Und so gehen wir also damit um , denn jedes dieser Module würde offensichtlich die Fehler noch verschlimmern , wenn wir sie nacheinander anordnen würden . Und somit muss ein erfolgreiches Modell die probabilistische Unsicherheit miteinbeziehen oder mit der probabilistischen Unsicherheit auf eine probabilistische Art und Weise umgehen . Und es muss mit einer Vielzahl an Hypothesen arbeiten und die richtige herausfiltern , durch die Anwendung von aufeinanderfolgenden Wissensquellen , während es die Verarbeitungskette entlangläuft . Nachdem ich das nun gesagt habe , eröffnen sich dadurch natürlich Möglichkeiten und ich würde gerne einige davon beschreiben in der uns verbleibenden Zeit und sie auch auf Teile dieser wissenschaftlichen Forschung aufmerksam machen , Herausforderungen , die noch vor uns liegen , an denen wir arbeiten . Als erstes Konversationssprache . Wie übersetzen Sie so einen Satz ? Das ist eine tatsächliche Aufnahme , die wir in unserem Labor von jemandem gemacht haben , der im Kontext einer Terminvereinbarung Deutsch spricht . Das Erste was auffällt ist , dass es hier dazwischen diese ehhs und ähms und ein Schmatzen et cetera gibt , die Erkennung muss mit diesen Geräuschen umgehen können . Das Zweite , was Ihnen auffallen wird ist , dass es keine Zeichensetzung gibt , denn die Leute sagen nicht inmitten eines Satzes Komma , Punkt Fragezeichen . Aber sie werden einfach ununterbrochen und natürlich sprechen . Wenn Sie die Zeichensetzung also künstlich einfügen und Sie entfernen die ehhs und ähms und sie geben es ein in traditionelle , klassische Übersetzungssysteme , werden Sie sehen , dass das Ergebnis manchmal immer noch Müll ist . Es handelt sich um eine sehr stockende Sprache , die geeignet interpretiert werden muss und häufig war das , was die Leute sagen wollten , eigentlich sehr einfach und die Art und Weise , wie sie es ausgedrückt haben , war sehr kompliziert und verwirrend . Das ist also die Beschaffenheit der zwischenmenschlichen Interaktion und somit müssen unsere Lösungen das miteinbeziehen . Ganz kurz , wir haben ein Konsortium für fortgeschrittene Forschung in der Sprachübersetzung , das neunzehnhunderteinundneunzig gegründet wurde . Es ist ein Konsortium , das mittlerweile viele Partner überall auf der Welt hat , die an Sprachübersetzung arbeiten und Sprachübersetzung hat sich mittlerweile entwickelt , ab dem Zeitpunkt als wir das erste Labor in Deutschland waren , die jemals einen Sprachübersetzer entwickelt haben und ihn der Öffentlichkeit zeigten und unser Partnerlabor in Pittsburgh war das Erste , was das in den USA gemacht hat . Aber jetzt ist es der größte , finanzierte Forschungsbereich in diesem ganzen Bereich der Übersetzung von Sprache und gesprochener Sprache , Sprachübersetzung , Übersetzung von einer gesprochenen Sprache zur anderen . Was müssen wir also machen ? Als Erstes müssen wir erkennen , dass es bestimmte Herausforderungen gibt , nämlich wie übermittle ich eine Übersetzungsfähigkeit , wie überwinde ich Leistungsbeschränkungen angesichts von Geräuschen , Fehlern und Unflüssigkeiten ? Und wie gehe ich dann mit großen Domainren und dem Umfang und den vielen verschiedenen Sprachen um ? In der Vergangenheit wurden zwei Ansätze vorgeschlagen , es gibt den sogenannten Interlingua Ansatz , der der funktioniert durch Satzanalyse und Dekodierung des Satzes hinsichtlich semantischer Repräsentation und Produktion eines Outputs oder einen statistischen Übersetzungsansatz , bei dem das Mapping direkt über ein Ausgangskanalmodell durchgeführt wird , das ähnelt sehr stark den Modellen , die wir uns in dieser Vorlesung angeschaut haben für die Spracherkennung . Also die Geschichte der Sprachübersetzung begann in den späten Achtzigern , frühen Neunzigern und entwickelte sich zu dieser ersten Demonstration von Systemen zur Übersetzung von einer gesprochenen Sprache zur anderen . Hinsichtlich des Vokabulars und Sprachstils waren die eher beschränkt , sodass die nächsten zehn Jahre darauf verwendet wurden spontane Sprache zu übersetzen , damit Sie einen Satz genauso flüssig sagen können , wie das die Menschen machen , aber immer noch mit einer begrenzten Domäne . Das waren also diese Systeme , die dann Sätze erkannten , die Sie in ein System gesprochen haben , in einer bestimmten Domäne , wenn Sie sich beispielsweise in einer Arztpraxis befinden , können Sie sagen , ich habe Kopfschmerzen oder so , aber Sie können nicht über französische Literatur aus dem siebzehnten Jahrhundert sprechen . Es wäre dann also etwas , was Sie nur in einer bestimmten Domäne tun würden , um mit den Leuten aus diesem Bereich darüber zu sprechen . Das war die Forschung von den Neunzigern bis Zweitausend , Zweitausend und eins und genau diese Art von Systemen wird in tatsächlichen einsetzbaren Systemen erweitert , die werden entweder für Touristen eingesetzt oder humanitäre , humanitäre Dienste oder Situationen oder friedenserhaltende Maßnahmen von Regierungen und Militär , das sind also alles Situationen , in denen eine einfache oder beschränkte Domäne ausreichend ist . Es geht nicht darum alle Möglichkeiten durchzusprechen , aber Sie möchten in der Lage sein , einen natürlichen Dialog zu führen . Diese Systeme sind dann immer kleiner geworden , ich kann Ihnen das später zeigen , wenn Sie hier hoch kommen . Wir haben diese Systeme jetzt auch für PDAs und für Touristen können Sie einen Satz in einer Sprache sagen und er wird in einer anderen Sprache laut ausgesprochen . Wir können das nun alles kombinieren zu , einer tragbaren Sprachassistenz , wie wir sie nennen . Das würde also Navigation einschließen , Informationszugang , Dokumentenübersetzung und Dialogübersetzung , also nochmal , wenn ein Mensch sich in einer fremden Situation befindet , sind es viele Herausforderungen , die zusammenkommen , Erkennung der Straßenschildern , Erkennung der , Einholung von Navigationsinformationen , Einholung von örtlichen Informationen und Übersetzung von Dialogen . Dazu gibt es ein Video , aber ich habe keine Zeit dafür , deswegen überspringen wir das und wenn wir noch Zeit haben , kann ich Ihnen das später zeigen . Das ist etwas , bei dem ich das Glück hatte teilzunehmen . Einige unserer Systeme für Übersetzung im Gesundheitswesen , also grundsätzlich sind es die Laptops und PDAs , die die Arzt-Patienten Dialoge übersetzen . Und wir könnten sie tatsächlich in einer Übung verwenden , die dieses Jahr im Mai stattgefunden hat , bei einer Übung von Koalitionsstreitkräften , in den Dörfern und im Dschungel von Thailand , wo die US Regierung , Singapur , Japan , Thailand und mit Beteiligung von Indonesien , sich zusammengetan haben , um eine Gesundheitsversorgung anzubieten , für Menschen in entlegeneren Dörfern , aber nur an einem einzigen Tag , so wurde dafür geworben und tausend Menschen sind morgens gekommen und letztendlich bekamen die Menschen Zahnbehandlungen und neue Brillen et cetera . Es war eine bemerkenswerte Übung in so kurzer Zeit , so viele Menschen gesundheitlich zu versorgen und in dieser Situation ist die Sprache offensichtlich ein Problem , denn wie läuft die Kommunikation zwischen einem Dorfbewohner aus Thailand und dem , und dem Arzt , amerikanischem Doktor oder englischsprachigen Doktor und das wurde dann gemacht . Was auch interessant ist , ist die Schilderübersetzung . Hier haben wir auch Dienste entwickelt , die mit PDAs mit Kamera funktionieren , da können Sie nach China fahren und ein Foto eines chinesischen Straßenschildes machen und dann sehen Sie das Bild des Straßenschildes oder das Bild , das Programm extrahiert dann den Text des Straßenschildes und macht dann eine optische Zeichenerkennung , nimmt eine Zeichenerkennung vor und übersetzt dann diesen Satz ins Englische und fügt ihn ins Bild ein , damit Sie wissen was auf dem Bild steht . Tatsächlich habe ich selbst diese Datenbank in China erstellt , wir haben tausende Bilder von Straßenschildern in China gemacht und als wir wiedergekommen sind , haben wir einige interessante und lustige Beispiele gefunden , wo die Übersetzung tatsächlich sehr hilfreich gewesen wäre , so wie dieses hier in der Mitte , wo Sie sehen können , dass das chinesische Zeichen tatsächlich sagt , kein Zutritt für Touristen . Ich war also in China und konnte das Schild nicht lesen , was mir den Zutritt verbot . Nun die letzte Herausforderung ist Sprachübersetzung , die nicht auf bestimmte Domäne beschränkt ist . Diese Hilfestellungen sind immer noch auf bestimmte Domäne beschränkt . Sie können natürlich alles überall sagen , aber es ist nur das Gesundheitswesen oder nur Tourismus . Aber was wäre , wenn ich meine Vorlesung für Sie übersetzen lassen wollte von Englisch nach Spanisch ? Es gibt eine Reihe solcher Anwendungen , Übersetzungen von Radiosendungen , Übersetzung von Vorlesungen und Reden , übersetzte Parlamentsreden , Telefongespräche , Besprechungen , sie sind alle domänenunbeschränkt , wir können hier die Systeme nicht domänenbeschränken . Und wir müssen sichergehen , dass wir eine Beschaffung finden , die für diese Situation angemessen ist . Wenn Sie also eine Übersetzung von dieser Vorlesung haben wollen , muss ich eine domänenunbeschränkte Sprachübersetzung zur Verfügung haben und sie muss auf irgendeine Art und Weise diskret beschaffen werden , denn wenn nur Sie kein Englisch verstehen , möchten Sie eine persönliche Übersetzung ins Spanische oder Chinesisch . Aber gehen wir davon aus , dass alle anderen es in Englisch hören wollen und in diesem Fall möchten Sie nicht alle anderen mit einem Lautsprecher stören , aus dem Chinesisch in den Raum tönt . Denn Sie benötigen etwas gezieltes . Wie können wir das also bewerkstelligen ? Es gibt Spracherkennung für verschiedene Genres , es hat sich herausgestellt , dass Vorlesungen , wenn sie allgemein gehalten sind , wie wir schon gesehen haben , sehr schwierig sind . Die Fehlerraten liegen immer noch bei ungefähr dreißig Prozent , sprecherunabhängige Besprechungen sind sehr schwierig , aber wenn es domänenunbeschränkt ist , aber dem Sprecher angepasst , an einen bestimmten Sprecher , erhalten wir bei dieser Aufgabe eigentlich angemessene Erkennungsfehlerraten . Also in einem anderen EC Projekt , genannt TC Star , haben wir uns mit diesem Thema beschäftigt und die Idee war , Parlamentsreden im europäischen Parlament vom Englischen ins Spanische und Deutsche und so weiter zu übersetzen , mit eher überraschend gutem Erfolg . Das sind einige Übersetzungs ergebnisse , gemessen anhand des sogenannten Bleu Score , wo die Übersetzung durchgeführt wird anhand der tatsächlichen Transkripte von diesen Parlamentsreden . Und dabei können gute Ergebnisse erzielt werden . Nun . Was hier sinnvoll zu beachten ist , ist dass diese statistischen Systeme , die in diesem Kontext entwickelt worden sind , schon erheblich besser sind , als einige der kommerziellen Übersetzungssysteme , die Sie draußen kaufen können . Ok . Nun , wie gut funktionieren diese Systeme ? Darüber werde ich sprechen , nachdem wir Ihnen die tatsächliche Demonstration zeigen . Die Übersetzung von Vorlesungen ist natürlich eine Erweiterung von so etwas wie den Parlamentsreden , Parlamentsreden enthalten immer noch eher allgemeine Diskussionsthemen . Aber wenn ich eine Vorlesung zu einem bestimmten technischen Thema halte , ist es natürlich viel spezifischer . Und das wollen wir Ihnen hier auf dem Bildschirm hier drüben zeigen , wenn Sie kurz den Vorlesungsübersetzer einschalten , während ich die Vorlesung halte . Dann sollten wir in der Lage sein hier oben auf dem oberen Bildschirm die automatische Erkennung zu sehen , von dem was ich sage , während auf dem unteren Bildschirm die automatische Übersetzung läuft . Beachten Sie nun , dass das nicht länger beschränkt ist auf eine bestimmte Domäne , aber wir haben eine vollständige Übersetzung von Sprache in einer offenen Domäne , so wie ich sie hier vor euch produziere . Nun , diese Vorlesungsübersetzungssysteme wurden angewendet bei Gesprächen in der Europäischen Gemeinschaft oder im Europäischen Parlament , aber um sie auf diese Art von Vorlesung anzuwenden , mussten wir offensichtlich auch ein spezielles Vokabular einführen und das System musste für diese typische Art von Vorlesung angepasst werden , die Ihnen vielleicht in einer technischen Vorlesung an einer Universität begegnen könnten . Nun , die Universitätsvorlesungen , die wir hier versuchen zu übersetzen , werden offensichtlich jetzt ins Spanische übersetzt , aber wir arbeiten auch an deutschen Versionen und chinesischen . Und das Ziel ist irgendwann Ihnen als Studenten eine automatische Übersetzung anzubieten von Vorlesungen , die hier an der Universität Karlsruhe gehalten werden oder an den anderen Universitäten in unserem InterACT joined Center . Also zukünftige Semester dieses Kurses werden potentiell simultane Übersetzungsdienste in Anspruch nehmen können in mehreren Sprachen , entweder Englisch oder Deutsch und vielleicht Chinesisch und empfinden es vielleicht als hilfreiche Ergänzung zu der , der Vorlesungspräsentation . Wie wird das nun bewerkstelligt ? Erneut handelt es sich um eine offene Domäne , offenes Vokabular , Sprachübersetzung , aber wir müssen uns mit spontanen , sprachlichen Unflüssigkeiten auseinandersetzen . Und das kann nur bewerkstelligt werden durch die Anwendung statistischer Lernalgorithmen , ähnlich wie die , die Sie in diesem Kurs gelernt haben bei Vorlesungen zur Spracherkennung und Sprachverarbeitung im Rahmen dieses Kurses . Eine weitere Sache , um die wir uns Gedanken machen müssen ist natürlich die Beschaffung . Jetzt in diesem Moment finde ich es beispielsweise sehr störend , dass Sie alle nach da drüben gucken und ich meine Folien nicht zeigen kann , niemand passt bei meiner Vorlesung auf , aber jeder achtet auf den Text . Und offensichtlich ist das bei einer Vorlesung nicht besonders gut , wenn es doch bei einer Vorlesung nur darum geht einen Gedanken zu übermitteln und nicht um Sie in Erstaunen zu versetzen oder Sie mit irgendwelchen Bildern auf einem anderen Bildschirm zu beeindrucken . Wie können wir das also bewerkstelligen ? Wir haben schon die gezielte audiovisuelle Hilfestellung erwähnt . Das ist eine Hilfestellung , die aus einem Lautsprecher besteht , der einen eher geraden oder engen gezielten Strahl Audiovisualität produziert , in die Richtung auf die er zeigt . Wie die Spanischübersetzung dieser Vorlesung , die Sie jetzt gerade aus dem Lautsprecher hören sollten . Ich höre hier gar nichts . Ich bin mir also nicht sicher , ob es funktioniert . Funktioniert es ? Können Sie es hören ? Das ist also wirklich eine außergewöhnliche Technologie , die entwickelt wurde bei Daimler Chrysler im Rahmen des Chil Projekts , sie transportiert einen audiovisuellen Strahl nur in eine bestimmte Richtung des Publikums oder im Raum . Zum Beispiel kann ich es gerade nicht hören . Aber wenn der Lautsprecher umschwenkt und zu Ihnen kommt , werden Sie in Ihrem Ohr ihre Stimmen hören und Sie bekommen die spanische Übersetzung dieser Vorlesung direkt zu Ihnen . Sie können sich also vorstellen , dass wenn der Lautsprecher wegdreht , Sie es nicht hören , Sie würden einfach nur eine normale Vorlesung hören , in Zukunft wäre es also möglich , den spanischen Bereich hier drüben zu haben , die Deutschen hier und die Englischsprachigen hier . Und Sie bekommen alle eine individuelle akustische Präsentation der Vorlesung , wenn der Lautsprecher in die verschiedenen Bereiche diese Raums tönt . Das ist aufregend . Wir können tatsächlich simultane Übersetzung in verschiedenen Sprachen für ein Publikum machen , und mehrere Personen im Publikum hören die Vorlesung in ihrer eigenen Sprache , ohne dass sie die tatsächlich sprechen oder die Vorlesung des Dozenten verstehen . Die andere Möglichkeit ist natürlich diese Übersetzungsbrille , das ist erneut eine Brille , bei der , der Übersetzungstext oder der Text der Übersetzung in Ihrer eigenen Brille angezeigt wird und Sie setzen sie auf und während Sie einer Vorlesung in der einen Sprache zuhören , sehen Sie die Übersetzung , ähnlich der Untertitel in einem Film in Ihrer eigenen Brille , damit Sie der Vorlesung folgen können . Wir haben so eine Anwendung , die wir heute nicht mitgebracht haben , aber wir experimentieren auch mit diesen Anwendungen . Gut , nicht zuletzt , natürlich ist eines der Dinge , die wir auch machen können , zu versuchen , uns eine Welt vorzustellen , in der Sie Sprache in einer Fremdsprache erzeugen , ohne sie zu sprechen . Also eine Reihe der Experimente , die wir durchgeführt haben , ist beispielsweise die Kombination mit der ENG Erkennung , wenn Sie also Sprache erkennen können , nur durch das Bewegen Ihrer Lippen , dann können wir vielleicht auch Output in einer anderen Sprache erzeugen . Also können Sie vielleicht in der Zukunft in ein anderes Land reisen , Ihre Lippen so bewegen , als ob Sie Deutsch sprechen würden und raus kommt Chinesisch und wenn Sie daran glauben , dass das vielleicht irgendwann in Ihre Wange implantiert wird oder ein Ohrring oder irgendwas , dann könnten Sie vielleicht in der Lage sein Ihren Mund einfach auf den Fremdsprachenmodus umzustellen und gesprochene Sprache in einer anderen Sprache erzeugen . Also das ist ein weiteres von , das stammt übrigens vom Discovery Channel . Ok . Das war also sehr unterhaltsam , als die vorbeigekommen sind und uns besucht haben , es gibt eine Reihe solcher TV Sendungen , es gab da auch eine von einem deutschen Kanal , aber ich habe keine Zeit , um die Ihnen alle zu zeigen . Ich möchte Ihnen einen letzten Gedanken mit auf den Weg geben , den ich auch für spannend und interessant halte und der eine Vielzahl an Möglichkeiten für interessante Forschung eröffnet . Ein Großteil dieser Forschung ist besonders jetzt sehr interessant , wenn diese Form von Übersetzung , über sprachliche Grenzen hinweg , beginnt zu funktionieren . In einer Vielzahl an verschiedenen Situationen , die Menschen erleben , funktioniert es schon , wenn sie in fremde Länder reisen . Und nun können wir sogar schon Sprache unbegrenzter Domänen übersetzen . Das ist also offensichtlich außergewöhnlich und wunderbar , denn wir können wirklich anfangen mit Menschen verschiedener Sprachen frei zu kommunizieren . Jedoch bleibt eine große Herausforderung weiterhin bestehen und zwar die große Anzahl an Sprachen auf der Welt . Die meisten der Übersetzungssysteme und Systeme , die Sie hier gesehen haben , wurden grundsätzlich in ungefähr fünf Sprachen entwickelt . Und diese Sprachen sind entweder sehr stark vertreten , viele Menschen , die in diesen Ländern leben , sehr reiche Länder , die sich große Forschungsprogramme leisten können , oder als gefährlich erachtet werden , sodass die Forschung durchgeführt wird und also es nur vier , fünf oder sechs Sprachen gibt , die erforscht werden , Chinesisch zum Beispiel , Spanisch , Englisch , Deutsch , Japanisch , Koreanisch , Französisch , bei diesen Sprachen gibt es sehr engagierte und dynamische Sprachverarbeitungsprogramme , die in Bearbeitung sind und bei denen diese Arten von Technologien zur Realität werden . Was ist mit dem Rest der Welt ? Auf der Welt gibt es sechstausend Sprachen und mit fünf Sprachen oder zehn Sprachen , werden wir nichtmal einen Bruchteil dieses Spracheinreichtums abdecken können . Also eine wichtige Forschungsrichtung , die wir sowohl in Karlsruhe als auch an der Carnegie Mellon verfolgen besteht darin , uns mit den ganzen anderen Sprachen zu beschäftigen . Wie können wir tatsächlich diese Technologien verwenden und die Kosten verringern und die Eintrittsbarrieren abbauen und schneller grundsätzliche Übersetzungs und Sprachverarbeitungstechnologien entwickeln , für diese anderen Sprachen . Und es gibt eine Anzahl an Ideen , die damit in Verbindung gebracht werden können . Einige Forschungsthemen , einige , wir haben eine Anzahl an Doktorarbeiten und Diplomarbeiten , die sich mit diesem Problem beschäftigen , also wie die Kosten für die Entwicklung solcher Systeme in diesen Sprachen verringert werden und wie tatsächlich Technologie entwickelt werden kann , mit viel weniger Ressourcen in diesen anderen Sprachen . Also leider haben wir keine Zeit , uns mit all dem zu beschäftigen und um das nochmal zu verdeutlichen , das Ziel dieser Vorlesung war nicht , Ihnen im Detail alle möglichen Forschungsrichtungen vorzustellen , die aus allem bestehen , was wir heute gesehen haben , sondern Ihnen einen Eindruck über den Reichtum der Möglichkeiten zu vermitteln , wenn wir an diese kognitiv bewussten und kognitiv verarbeitenden Systeme , die anfangen die Welt in der wir leben zu verarbeiten und beobachten und interpretieren , genauso wie die Interaktion zwischen Menschen . Es gibt also eine große Anzahl wirklich interessanter potentieller Dienstleistungen , die möglich werden , wenn wir uns in solchen Systemen bewegen . Also natürlich gibt es viele Möglichkeiten für Diplomarbeiten , Studienarbeiten , Dissertationen und Arbeiten dieser Art , jeder dieser Aspekte , die wir heute angesprochen haben bietet wirklich eine Vielzahl an potentiellen Forschungsprojekten . Also ich hoffe , dass der eine oder andere unter Ihnen , vielleicht daran interessiert ist , in der Zukunft mit uns zu arbeiten . Wenn Sie an einem dieser Projekte interessiert sind , können Sie uns ansprechen , damit Sie an diesen interessanten Aktivitäten teilnehmen können . Bevor ich gehe , möchte ich Sie darauf hinweisen , dass es Informationsmaterial gibt , was Sie gerne mitnehmen können . Am Donnerstag haben wir einen sogenannten Chil Technologie Tag . Vielen von den Systemen ,die Sie heute hier gesehen haben werden Besuchern aus der Industrie vorgestellt , ebenso wie Besuchern aus der Europäischen Gemeinschaft , diesen Donnerstag im EATB und in unserem Gebäude am Fasanengarten und ich denke , dass es hier auch ein Programm geben wird oder Programme , ja , wir haben Broschüren oder Programme , die Sei über den Chil Technology Day informieren sowie Informationen über unser Interact Center geben falls Sie an einem unserer Austauschprogramme interessiert sind . Also ich hoffe damit haben wir Ihnen einen kleinen Überblick gegeben , ich hoffe Sie werden in der Klausur zu den kognitiven Systemen gut abschneiden . Mein Ratschlag an Sie für die Klausur ist , machen Sie die Übungen , machen Sie die Hausaufgaben . Falls Sie sie noch nicht gemacht haben , fangen Sie jetzt damit an , denn es gibt eine enge Verbindung zwischen nicht bestehen und dem nicht machen der Übungen . Also die Leute , die die Übungen machen , schneiden gut in der Klausur ab und die anderen nicht . Also bitte , bitte machen Sie die Übungen , machen Sie die Übungen . Und ich hoffe , dass es Ihnen allen gelingen wird , in der Abschlussprüfung gut abzuschneiden . Vielen Dank . Vielen Dank . Also ich werde heute meine Arbeit zur Portierung von phonembasierten Spracherkennungssystemen auf neue Sprachen vorstellen unterstützt durch artikulatorische Merkmalmodelle . Also einfach eine weitere Arbeit , um die Arbeit der Portierung auf neue Sprachen allgemein voranzubringen . Wenn wir uns die Sprachen anschauen , die heute in der Welt existieren dann gibt es ungefähr fünf bis siebentausend unterschiedliche Sprachen , die noch existieren und die in der heutigen Welt benutzt werden und das ist natürlich eine große Zahl und eines der interessanten Tatsachen über diese große Zahl ist , dass die große Mehrheit dieser Sprachen nur von einem kleinen Teil der Bevölkerung gesprochen werden . Wenn Sie sich die Sprachen mit einer Million Sprechern oder mehr anschauen . Sie werden von ungefähr sechsundneunzig Prozent der Bevölkerung gesprochen . Also ungefähr dreihundertfünfzig bis vierhundertfünfzig Sprachen werden von sechsundneunzig Prozent der Bevölkerung gesprochen . Die restlichen fünfundneunzig Prozent der Sprachen werden nur von sechs Prozent der Bevölkerung gesprochen . Zur Zeit erleben wir gerade , dass Sprachen häufig aussterben . Dies ist ein Trend , der in der Vergangenheit begonnen hat , also im Laufe der letzten zweihundert Jahre konnten Linguisten aufzeigen , dass Sprachen angefangen haben auszusterben , aber es scheint , dass sich dieser generelle Trend verstärkt und Linguisten schätzen , eine sehr pessimistische Schätzung , dass innerhalb weniger Generationen bis zu neunzig Prozent aller lebendiger Sprachen von heute aussterben könnten auf der technischen Seite , wenn wir uns automatische Spracherkennungssysteme oder natürliche Sprachverarbeitungssysteme allgemein anschauen diese gibt es nur für einen Bruchteil dieser Sprachen in der Welt . Also es ist üblich heutzutage zu sagen Sprachen , die ausgewählt wurden sind reich mit einer großen Anzahl an Sprechern sind gefährlich . Also ich denke das ist politisch irrelevant , was gut ist , würde ich sagen , aber dies sind überwiegend die Sprachen für die natürliche Sprachverarbeitungssysteme entwickelt wurden und interessanterweise , wenn man sich die Arbeit von Linguisten anschaut Linguisten selber haben von einer nicht-technischen Sichtweise überwiegend mit den größten Sprachen gearbeitet aber nur sehr wenig Arbeit geleistet , um die vielen Minderheitensprachen , die es auf der Welt gibt , zu erforschen . Also wenn wir uns die technische Seite des Trainings eines ASR Systems anschauen das Training benötigt große Datenmengen . Die statistischen Methoden versuchen nur so viele Audiodaten , vorzugsweise manuell annotiert , zu verarbeiten , um die notwendigen Statistiken zu sammeln , um die statistischen Modelle zu schätzen . Und gleichzeitig , das ASR System läuft nun schon seit einigen Jahren so gut , dass sie in realen Situation zur Anwendung kommen . Wenn Sie sich dieses Projekt anschauen , die Industriepartner fangen an ASR Systeme sogar in ihren Systemen zu benutzen und denken darüber nach wie man sie einsetzen könnte . Wenn Sie sich den Markt anschauen , gibt es jetzt viele Produkte da draußen , die sich automatische Spracherkennungssysteme zu Nutze machen und heutzutage auch in Kombination mit Übersetzungssystemen , aber diese Systeme gibt es nur für die großen Sprachen in der Welt . Also , hier sehen wir , dass wir tatsächlich Gefahr laufen , eine digitale Spaltung zu verursachen einfach so , der Zugang zum Internet , der nicht für jeden zugänglich ist , könnte eine digitale Spaltung verursachen auf der Seite der Informationszugangsgröße hier laufen wir Gefahr , dass wir eine digitale Spaltung verursachen wenn es darum geht , auf andere Sprachen automatisch zuzugreifen . Zum Beispiel , wenn man sich Übersetzungssysteme anschaut , dann laufen wir zur Zeit Gefahr , dass Übersetzungssysteme nur für größere Sprachen verfügbar sind und einer der Gründe warum Sprachen so schnell aussterben ist die Tatsache , dass viele Redner zu Sprachen wechseln , die ihnen vorteilhafter erscheinen also wirtschaftliche Vorteile , politische Vorteile oder für den gesellschaftlichen Status und dies sind nicht nur Sprachen , die in einem abgelegenen Dorf im Dschungel gesprochen werden , dies sind tatsächlich sehr bekannte Sprachen , wie Gälisch oder heutzutage wird sogar angenommen , dass Irisch auf dem Weg zum Aussterben ist , da die Leute zum Englischen wechseln , weil sie denken , dass es ihnen Vorteile bringt . Also die Idee ist , dass es schön wäre , die Sprachenvielfalt in der Welt zu behalten , um viele verschiedene Sprachen zu haben ähnlich , sagen wir mal , zur biologischen Vielfalt , um eine gesunde Umwelt zu haben , in der Sprachen sich entwickeln können und gut entwickeln können und mit ihnen können sich die Kulturen der Menschen , die eng mit den Sprachen verbunden sind , auch gut entwickeln . Also , wenn wir uns das anschauen , wir haben gesagt , dass wir große Mengen annotierter Audiodaten brauchen , um die akustischen Modelle der ASR Systeme zu trainieren wenn wir alle Sprachen weltweit angehen wollen oder wenigstens sehr viele Sprachen in der Welt ist dieser traditionelle Ansatz wahrscheinlich nicht möglich . Es ist zu teuer zu zeitaufwendig wenn es darum geht , diese Systeme zu entwickeln . Also die Menschen haben vor einiger Zeit bereits angefangen zu schauen wie man ASR Systeme für neue Sprachen auf günstige Weise einsetzen kann , so dass es auf viel mehr Sprachen angewendet werden kann , als heute üblich ist . Also ein Teil der Arbeit von Tanya und Alex handelte von der Verwendung von multilingualen akustischen Modellen , um Spracherkennungssysteme auf neue Sprachen zu portieren mit möglichst geringen Mehrkosten oder auf sehr schnelle und günstige Weise und günstig im Sinne , dass wir nicht viel Zeit und Geld brauchen und sie definieren multilinguale automatische Spracherkennungssysteme und Systeme , die in der Lage sind simultan viele Sprachen zu erkennen , das wurde während des Trainings gesehen und dann , als nächster Schritt konnten diese akustischen Modelle dann auf neue Sprachen angewendet werden und eine der von Tanya entwickelten Techniken ist die Technik des multilingualen Mix wobei man akustische Modelle auf mehrere Sprachen trainiert und man teilt dieses akustische Modell mit Sprachen , die auf Phonemidentität basieren . Also die Idee dahinter ist , man hat ein Annotationsschema , zum Beispiel Ipa was alle Phoneme der Welt bei unterschiedlichen Sprachen auf die gleiche Weise notiert und man kann sagen , dass zwei Phoneme in unterschiedlichen Sprachen , die durch das gleiche Symbol dargestellt werden irgendwie fast ähnlich klingen . Also man kann gewöhnliche Modelle mit ihnen trainieren , indem man die Trainingsdaten aus allen Sprachen teilt . Und die Hoffnung ist , wenn man so ein multilinguales Modell hat wenn man viele Sprachen in das Training einbezieht , natürlich die bekannten , für die man bereits ASR Systeme hat , für die man ein akustisches Modell bekommt was die Akustik einer neuen Sprache fast oder sogar vollständig abdeckt . In Wahrheit gibt es immer noch einen deutlichen Leistungsabfall , wenn man multilinguale Modellierungen bei der Trainingssprache durchführt und auch wenn man es auf eine neue Sprache anwendet , aber es ist ein sehr guter Ansatzpunkt , um ein akustisches Modell in einer neuen Sprache zu eröffnen , das man dann mit nur wenig Adaptionsmaterial anpassen kann , um ein brauchbares ASR System zu bekommen . Also , statt , dass man große Datenmengen sammelt muss man jetzt weniger große Datenmengen sammeln , um die gleiche Leistung zu bekommen . Und auf diese Weise , auf diese Weise kann multilinguale akustische Modellierung für Portierung von Spracherkennungssystemen auf neue Sprachen mit weniger Aufwand verwendet werden . Also dieses Bild illustriert das ML-Mix Konzept . Also auf der linken Seite hat man den traditionellen monolingualen Erkenner mit den Modellen für jede Sprache . Sie haben hier getrennte Modelle . Dies ist das Modell für den mittleren Zustand eines M Phonems , also alle vier Sprachen haben ihre unterschiedlichen Modelle und dann für ML-Mix nimmt man die Trainingsdaten aus allen Sprachen und man trainiert ein ein einzelnen Gaußsches Mischverteilungsmodell für diese Sprachen , da man behauptet , dass ein Deutsches M , Japanisches M , und so weiter im Grunde alle gleich klingen . Oder wenigstens ähnlich genug , so dass man sie in einem einzigen Modell darstellen kann . Also auch in der Vergangenheit haben die Leute angefangen sich akustische Modelle mit unterschiedlichen Phonemen anzuschauen . Also weil die Menschen das Gefühl hatten , dass Phoneme nicht notwendigerweise in der Lage sind tatsächlich alle Effekte , die man bei Sprache hat , einzufangen , wenn es um akustische Modellierung geht besonders Forscher hatten das Gefühl , dass für spontane Sprache die strikte Phonemsequenz , die man benutzt , um die Aussprache von Wörtern zu beschreiben nicht alle Effekte abdecken , die man bei spontaner Sprache hat , wie Auslassung von Phonemen oder die Tatsache , dass Phoneme , die aus unterschiedlichen artikulatorischen Merkmalen bestehen nicht jedes artikulatorische Merkmal wird auf dem gleichen Niveau an Genauigkeit erreicht , abhängig davon ob man nachlässig spricht oder abhängig von dem Kontext , in dem ein Phonem auftritt . Also , eins der alternativen Modelle , das sich die Leute angeschaut haben , ist die Verwendung von artikulatorischen Merkmalen . Also , eins der artikulatorischen Merkmale verwendet bei dieser Arbeit eine Art von Beschreibung der artikulatorischen Ziele , die von den Artikulatoren während des Artikulationsprozessen erreicht werden . Also für jedes Phonem , zum Beispiel Ipa beschreibt bestimmte Ziele , also ob ein Ton stimmhaft oder stimmlos ist , ob es ein Vokal oder Konsonant ist ob es zum Beispiel ein Plosiv oder kein Plosiv ist ob das Dorsum der Zunge eine bestimmt Stellung bei der Artikulation einnimmt . Dies sind Arten artikulatorischer Merkmale die wir benutzen wenn wir über den Ort und die Art der Artikulation sprechen . Und Florian-Metze hat in der Vergangenheit eine Arbeit erstellt , bei der er in einem monolingualen Fall gezeigt hat , also wenn man mit einer sehr bekannte Sprache arbeitet und man die Phoneme und Modelle für diese artikulatorischen Merkmale und er hat Verbesserungen gezeigt als er diese Art von Kombination durchführt . Und um das zu tun , braucht man Modelle für artikulatorische Merkmale und er hat binäre Merkmale . Also für jedes artikulatorische Merkmal , das man definiert trainiert man zwei Modelle , eins um seine Abwesenheit festzustellen und eins um seine Anwesenheit festzustellen . Also für das Merkmal Stimmlichkeit , man hat ein Modell , das aussagt ob ein Ton stimmhaft ist und man hat ein anderes Modell , das aussagt ob das Merkmal stimmlos ist und wir haben ein Gaußsches Mischverteilungsmodell dafür , mit einhundertachtundzwanzig Gaußschen Komponenten . Also , wenn man eine Rahmenklassifikation machen möchte , kann man einfach einen Naiven-Bayes Klassifikator erstellen , indem man zwei Modelle benutzt , aber wenn man dies nun in die kontinuierliche Spracherkennung eingliedert Florian hat ein Stream-basiertes Setup , bei dem man die Phonemmodelle und die artikulatorischen Merkmalmodelle kombiniert , in dem Stadium , in dem man die Emissionenwahrscheinlichkeit berechnet . Also hier nur den Überblick über eine Ipa Tabelle . Also , was man jetzt sehr deutlich sehen kann , zum Beispiel , dass jedes Phonem in der Tabelle als eine Art Kombination von unterschiedlichen artikulatorischen Merkmalen beschrieben ist . Also ein Phonem ist im Grunde nur ein verkürztes für eine Reihe von artikulatorischen Merkmalen , so als wenn es ein Frikativ ist , es ist ein Labiodental und stimmhaft , zum Beispiel . Das würde einem das würde dieses Paket oder Vektor an artikulatorischen Merkmalen , man würde es dann als Phonem abkürzen . Und wenn es zu einem Stream-basierten Setup kommt dieses Diagramm stellt das Stream-basierte Setup dar . Also Stream null ist normalerweise unser Phonemmodell genauso wie in der phonembasierten Erkennung und wenn man jetzt die Emissionswahrscheinlichkeit eines HMM Status berechnen will es ist nur nicht mehr die Emissionswahrscheinlichkeit eines Gaußschen Mischverteilungsmodell eines Phonemmodells , aber wir führen in der Log Wahrscheinlichkeitsdomain eine lineare Kombination dieses Phonemmodells durch mit allen entsprechenden artikulatorischen Merkmalsmodellen , die diesem Phonem entsprechen . Also sagen wir mal , wenn man den Score für ein P berechnet dann würde man den Phonemmodell Score für ein P nehmen dann würde man sagen , dass es ein Plosiv ist , also man nimmt das Phonemmodell für Plosive und was ist es ? Ès ist stimmlos , also man nimmt das artikulatorische Merkmalsmodell für stimmlos und dann würde man die Scores berechnen , sie zusammenzählen und ihnen Gewichte zuweisen . Also es ist eine Log-lineare Kombination , also man summiert nicht einfach die Werte , aber aufgrund von nummerischen Aspekten auch aufgrund davon wie Werte in der Lage sind bestimmte Merkmale zu erkennen man gibt den einzelnen Wahrscheinlichkeiten oder Logwahrscheinlichkeiten in der Summe unterschiedliche Gewichte . Also , da man diese Gewichte braucht braucht man eigentlich eine gute Möglichkeit diese Gewichte auf gute Art und Weise auszuwählen und in der Vergangenheit habe ich mit zwei Methoden gearbeitet eine ist heuristisch einfach heuristisch und die andere ist eine diskriminative Trainingsmethode , um die Gewichte herauszufinden . Ich werde das später etwas detaillierter erklären . Also , in der Vergangenheit haben wir untersucht ob artikulatorische Merkmale auch auf multilinguale Weise modelliert werden können und auf cross-linguale Weise angewendet werden und was wir herausgefunden haben ist , dass artikulatorische Merkmale relativ robust in Sprachen erkannt werden können . Also wenn man ein Modell für Stimmlichkeit nimmt und es wurde auch auf Englisch trainiert und man wendet es auf Deutsch an ist man tatsächlich in der Lage , einen stimmhaften Deutschen Klang und einen stimmlosen Klang zu unterscheiden indem man dieses Modell benutzt , das nur auf Englisch trainiert wurde . Und auch , man kann das Gleiche tun wie für Phoneme man kann multilinguale artikulatorische Merkmalmodelle trainieren , indem man die Trainingsdaten aus allen unterschiedlichen Sprachen bündelt . In ihrer Arbeit hat Tanya einen Maßstab namens Share Factor eingeführt , den sie misst , dass wenn man ein multilinguales Modell hat , und es auf eine neue Sprache anwendet misst man wie gut die Phoneme der neuen Zielsprache bereits abgedeckt sind durch dieses multilinguale Modell . Also , wie viele Phoneme haben sie gemeinsam und wenn man das Gleiche für die artikulatorischen Merkmale macht merkt man , dass der Share Factor für artikulatorische Merkmale tatsächlich höher ist als für Phoneme , also die Überschneidung zwischen Merkmalen in unterschiedlichen Sprachen scheint generell höher zu sein als für Phoneme . Also das macht sie sehr interessant für multilinguale und cross-linguale Anwendungen weil man in der Lage ist , viele der Merkmale in der Zielsprache abzudecken ohne die Zielsprache zu sehen . Und in der Vergangenheit haben wir uns die Kombination von cross-lingualen und multilingualen artikulatorischen Merkmalen mit monolingualen Phonemmodellen angeschaut . Also wir haben immer Phonemmodelle , die für die Zielsprache trainiert wurden und wir haben sie mit artikulatorischen Merkmalen aus vielen Sprachen kombiniert oder mit multilingualen artikulatorischen Merkmalen und wir haben mit der Trainingssprache der Phonemmodelle getestet und haben Verbesserungen gesehen . Also , die Frage , die wir uns jetzt selbst stellen ist was wenn wir ein Phonemmodell haben , das auch ein multilinguales Modell oder monolinguales Modell ist , was sich von der Testsprache unterscheidet . Also , wenn man eine neue Sprache hat , die wir nicht gesehen haben , weder bei den artikulatorischen Merkmalmodellen noch bei den Phonemmodellen und wir kombinieren jetzt Phonemmodelle multilinguale , monolinguale mit artikulatorischen Merkmalen und wenden sie auf die neue Sprache an , wird es Verbesserungen geben , als wenn man nur Phoneme verwendet ? Also , wie ich bereits gesagt habe , wir müssen Strömungsraten auswählen und wir haben zwei Arten , auf die wir dies tun können . Eine eine Sache , die wir versucht haben , war Heuristik . Also , das war einfach . Wir haben eine feste Stream-Rate für jedes artikulatorische Merkmal , das wir hinzufügen würden zu dem Stream-basierten Setup und dann wäre das Gewicht für die phonembasierten Modelle einfach das Gewicht , das sie auf eins aufsummiert und dann haben wir uns die die Klassifizierungsgenauigkeiten und wir testen die Wortfehlerrate an einem Entwicklungsset bis man eine maximale Leistung erreicht und dann ist das das Setup , das man später auf das Evaluationsset anwendet . Der andere Weg war eigentlich ein Training der Gewichte , indem wir eine Methode namens diskriminative Modellkombination anwenden . Es ist ein etwas , das von Peter-Beyerlein entwickelt wurde eigentlich für das gleiche Stream-basierte Setup , das wir verwenden . Also , was er eigentlich gemacht hat ist , er hat es zum Beispiel dafür verwendet , die Gewichte von unterschiedlichen Sprachmodellen zu trainieren . Die auch auf log-lineare Weise kombiniert sind mit den Modellen aus dem akustischen Modell und nur wie das ist dasselbe Setup , das wir jetzt mit Phonemmodellen und den artikulatorischen Merkmalmodellen haben . Also wir haben dies benutzt , um die Gewichte diskriminativ zu trainieren , die wir für das Stream-basierte Setup haben und was dieses DMC macht , ist , dass es ein Gradientenverfahren durchführt auf einer gleichmäßigen Wortfehlerratenfunktion . Und so wie die Wortfehlerratenfunktion gleichmäßig gemacht wird , so dass man tatsächlich einen abfallenden Gradienten machen kann wird auf die Art gemacht , dass es eine Approximation der Wahrscheinlichkeit des gesamten Hypothesenraum und da dies in der Realität natürlich nicht möglich ist , haben wir als Approximation dafür eine N-beste Liste verwendet . Also die Experimente bei dieser Arbeit wurden mit dem Globalphone Korpus durchgeführt , oder mit Sprachen aus dem Globalphone Korpus . Globalphone wurde von Tanya und unter Tanyas Aufsicht gesammelt und ist ein Korpus von gelesenen Zeitungsartikeln aus vielen Sprachen , ich glaube achtzehn und die Anzahl steigt weiter , also die Zahl könnte bereits übertroffen worden sein und diese Artikel sind alle auf ähnliche Weise gesammelt worden , oder im Prinzip auf die gleiche Weise also nah am Mikrophon gesprochen , gleiche Aufnahmequalität Zeitungsartikel werden von Muttersprachlern gelesen für eine LVCSR Funktion es ist gut dafür geeignet wenn man Forschung betreibt beim Portieren in neue Sprachen oder wenn man die Leistung von Sprachen vergleicht oder bei multilingualer Modellierung . Also , für unsere Experimente haben wir die Sprachen Deutsch , Englisch , Russisch und Spanisch ausgewählt und wir haben hauptsächlich drei Sets beim Korpus , eins fürs Training eins für Entwicklungsarbeit wie zum Beispiel , die richtigen Stream-Raten zu finden und Sprachmodellgewichte und so weiter und wenn wir die optimale Kombination gefunden haben , haben wir die Evaluation in einem separaten Set gemacht . Also dies gibt uns einen Überblick über die Größe von vier unterschiedlichen Sprachen , über das Training , Entwicklung und Evaluationsset . Also , um ein Gefühl dafür zu bekommen wie gut ihre Portierung in die neue Sprache funktioniert und wie gut die Leistung der unterschiedlichen Sprachen ist haben wir als Baseline monolinguale Sprachenerkenner trainiert , die wir ausgewählt haben und und nur ein Standard Setup wie man es kennt mit einem MFCC Front end . Links nach rechts kontinuierliches HMM , wir haben kontextunabhängige und kontextabhängige Modelle die kontextabhängigen Modelle haben dreitausend Modelle und sind phonetisch verbunden , indem sie einen Klassifikations und Regressionsbaum benutzen und dann haben wir auch ein multilinguales Modell für die Sprachen Englisch , Russisch und Spanisch trainiert . Und wir haben natürlich auch die dazugehörigen Detektoren für artikulatorische Merkmale für die Sprachen Englisch , Russisch und Spanisch und wie Sie sich vorstellen können war Deutsch unsere hauptsächliche Zielsprache , also wir haben vorgegeben , dass wir gar kein Deutsch können und die Portierung nach Deutsch und dann kann man es mit einem vollständigen Deutschen System vergleichen , wie es aussehen würde wenn man genug Trainingsmaterial hat . Also dies gibt nur einen Überblick über diese Baseline Systeme für die kontextunabhängigen und kontextabhängigen Fälle für die andere Evaluation für die Entwicklung und Evaluationsset und man kann sehen , dass Zahlen von Sprache zu Sprache variieren , was normalerweise auf den unterschiedlichen Schwierigkeitsgrad der unterschiedlichen Sprachen hinweist , wenn man für sie ein Spracherkennungssystem entwickeln will und was sie wahrscheinlich sofort bemerken werden Russisch sticht hervor , da es sehr hohe Wortfehlerraten hat und der Grund für Russisch ist Russisch ist aus linguistischer Sicht sehr komplex . Erstens ist es äußerst beugbar und zweitens , was es sehr schwierig macht für N-Gramm Sprachmodellierungen . Hat es eine sehr lockere Wortstellung . Im Prinzip ist alles möglich . Die Art wie man Wörter verändert führt zu unterschiedlicher Intonation oder unterschiedlichen Konnotationen in den unterschiedlichen Sätzen , aber man kann die Wörter sehr frei anordnen , was dazu führt , dass das Russische Sprachmodell eine sehr hohe Perplexität hat eintausend und höher und darum haben wir so hohe Wortfehlerraten für Russisch und das ist immer noch ein ungelöstes Problem , aber jetzt zu einem anderen Forschungsproblem . Aber wenn man jetzt ein multilinguales Modell für die Sprachen Englisch , Russisch und Spanisch trainiert bekommt man diese Zahlen , und Sie werden feststellen , dass diese Zahlen irgendwie kleiner sind als die monolingualen Zahlen und der Grund dafür ist , dass obwohl ein Phonem , das mit dem gleichen Ipa Symbol notiert ist , in unterschiedlichen Sprachen sehr ähnlich klingen kann es ist eigentlich nicht genau das gleiche , sondern kann unterschiedliche Variationen haben . Dieses multilinguale Modell , das drei Sprachen abdeckt hat die gleiche Anzahl an Modellen wie Erkenner für nur eine Sprache in einem monolingualen Fall . Also , wenn man diese Experimente durchführt und dieses multilinguale Modell mit , sagen wir neuntausend Modellen trainieren werden Sie sehen , dass diese Zahlen tatsächlich runtergehen . Man erreicht die monolinguale Wortfehlerrate , aber es ist ein Zeichen , dass wenn man die gleiche Menge Modelle hat für mehr als eine Sprache verliert man irgendetwas . Sie sind nicht in der Lage die Kontextabhängigkeit in dem kontextabhängigen Baum so gut einzufangen als wenn man nur mit einer Sprache arbeiten würde . Also das erste Experiment war einfach eine monolinguale Portierung . Also haben wir einen Englischen Erkenner und haben es auf das Deutsche Set angewendet und wenn man die Phonemmodelle nimmt sieht man diese Zahlen . Also dies sind Wortfehlerraten und sie sind vergleichbar hoch weil sich die Englische Akustik von der Deutschen Akustik unterscheidet und die Wortfehlerraten , wenn Sie nicht , und keine Deutschen Daten haben , und Sie wenden einfach das Englische Akustikmodell auf Deutsch an , ist vergleichbar hoch . Also , wenn man jetzt anfängt artikulatorische Merkmalmodelle hinzuzufügen zu diesen Phonemmodellen . Sehen Sie , dass Sie einen Abfall in der Wortfehlerrate bekommen und , es ist wichtig anzumerken , also wir haben sowohl die heuristische und die diskriminative Modellkombination und was wir gemacht haben ist , dass wir tatsächlich das Gewicht für die Kombination festlegen , das Stream-basiertes Setup bei dem Englischen Entwicklungsset . Wir haben das dann auf das Deutsche angewendet . Also diese Zahlen haben keine Deutschen Daten gesehen nicht einmal das Deutsche Entwicklungsset um die richtigen Stream-basierte Raten zu finden und so ist es eigentlich interessant wenn man bemerkt , dass diese Gewichte , die wir im Englischen Set finden tatsächlich scheinbar positive Auswirkung auf das Deutsche Set haben , also sind sie irgendwie nicht vollständig sprachenunabhängig , aber sie generalisieren eine neue Sprache auf angemessene Weise . Was wir auch sehen können ist , dass wenn wir nur die Englischen artikulatorischen Merkmale mit der DMC hinzufügen wir eine geringere Wortfehlerrate bekommen als wenn wir alle artikulatorischen Merkmale der DMC verwenden . Und dies ist aufgrund der Tatsache , dass es eigentlich ein Ungleichgewicht gibt zwischen dem Weg der Stream-basierten Raten und einem Set und dem Set , das es testet . Wir werden später sehen , dass , wenn man tatsächlich ihre Stream-basierten Raten auf die Zielsprache berechnet , man bessere Werte bekommen wird . Also anstatt das Englische phonembasierte Modell zu benutzen und es auf Deutsch anzuwenden benutzen wir jetzt das multilinguale Modell und wenden es auf Deutsch an und was man jetzt sehen kann ist , dass die Wortfehlerrate zu sinken beginnt . Also wie wir von Tanyas Arbeit wissen wenn man ein multilinguales Modell hat , das Daten aus vielen Sprachen gesehen hat dann profitiert man davon , wenn man es auf eine neue Sprache anwendet . Man ist besser in der Lage es zu erfassen und jetzt haben wir angefangen die artikulatorischen Merkmalmodelle hinzuzufügen , zuerst nur die Englischen dann am Ende multilinguale alle monolingualen und man kann sehen , dass die Wortfehlerrate im Allgemeinen sinkt wieder für die DMC . Sie sehen , das Problem ist , dass die phonembasierten Modelle und die Englischen artikulatorischen Merkmalmodelle nicht schaden , aber sie bringen einem keine große Zunahme , aber wenn man alle Modelle verliert , fängt man tatsächlich an mittlere Zunahmen zu sehen . Sie sind nicht riesig , aber sie sind bei allen unterschiedlichen Kombinationen beim Hinzufügen von artikulatorischen Merkmalmodellen konsistent und berechnen die Stream-basierten Gewichte , also es gibt einen deutlich sichtbaren Trend . Also , was wir dann gemacht haben ist , wir haben angefangen Adaptionsmaterial zu benutzen , um auch das phonembasierte Modell anzupassen . Also wir geben vor , dass wir fünfzehn Minuten mit Adaptionsdaten auf Deutsch haben und wir haben angefangen die Phonemmodelle anzupassen mit diesen fünfzehn Minuten und man kann sehen , dass die Wortfehlerrate schon deutlich sinkt und jetzt wenn wir die artikulatorischen Merkmale wieder anpassen , sinkt die Wortfehlerrate und wie wir gesehen haben , scheint es am besten zu sein , alle artikulatorischen Merkmale hinzuzufügen , also wir haben es diesmal mit allen artikulatorischen Merkmalen gemacht und verwenden die DMC , um die Stream-Basis und Stream-Gewichte im Setup zu verwenden . Also abschließend kann ich sagen , die Arbeit hat einen Hinweis darauf gegeben , dass artikulatorische Merkmale dafür geeignet sind phonembasierte Modelle in neue Sprachen zu portieren . Und wenn man Stream-Gewichte hat , die für ein Entwicklungsset einer anderen Sprache geschätzt werden und sie dann testet bringen sie einem immer noch Verbesserungen , wenn man sie für die neuen Sprachen testet , also sie scheinen irgendwie generell zu gelten für verschiedene Sprachen . Und wenn man dann die adaptierten Phonemmodelle kombiniert , also man passt die Phonemmodelle ans Deutsche an und man kombiniert sie mit allen artikulatorischen Merkmalen man sieht auch Verbesserungen , nicht nur wenn man nur unpassende Phonemmodelle hinzufügt . Also für die zukünftige Arbeit , eine Sache , die noch fehlt ist , wir haben Phonemmodelle adaptiert , aber bis jetzt haben wir keine artikulatorischen Merkmalmodelle adaptiert . Also das ist eines der zukünftigen Experimente , was passiert wenn man jetzt auch die artikulatorischen Merkmalmodelle adaptiert wird man wird man größere Zunahmen durch das Hinzufügen von artikulatorischen Merkmalmodellen bekommen . Hi . Also , für all diejenigen , die mich nicht kennen , ich bin Kevin-Kilgour aus Karlsruhe und ich werde heute über Sprachmodelladaption sprechen insbesondere indem man miteinander verknüpfte semantische Daten verwendet . Die nur ein kleiner Überblick darüber wofür wir eigentlich Sprachmodelle benötigen , Sie wissen all dies wahrscheinlich schon , aber Sprachmodelle sind eine mathematische Repräsentation natürlicher Sprache und wir benötigen Sie immer wenn Maschinen natürliche Sprache entdecken . Die dieses dieses Sprachmodell hier wurde insbesondere für die automatische Spracherkennung entwickelt . Ein verbreitetes Phänomen ist , wenn man ein Sprachmodell entwickelt , dass man ein Sprachmodell in einer Domäne trainieren kann und es sehr gut funktioniert in dieser Domäne . Aber wenn man versucht es für eine andere Domäne zu verwenden , dann schlägt es fehl und wenn man ein Sprachmodell entwickelt , das im Allgemeinen gut genug für alle Domänen ist , ist es in dieser einen bestimmten Domäne nicht so gut . Also , es wurde versucht , die Sprachmodelle zu adaptieren indem man den Output so nimmt , dass das ASR System etwas Text transkribiert . Man nimmt diesen Output , man analysiert ihn und man adaptiert sein Sprachmodell je nach Output . Es ist in diesem Gebiet für mein adaptives Sprachmodell . Und ich möchte vorschlagen vorschlagen vorschlagen ein Sprachmodell , das sich diesen Bedürfnissen anpasst . Also das Ziel , das ich mir gesetzt hatte war , dass ich ein domänenunabhängiges Sprachmodell haben wollte . Ich möchte es nicht für eine bestimmte Domäne entwickeln es soll sofort in jeder Domäne verwendbar sein sollte in der Lage sein , egal wo , zu generalisieren , um zum Speziellen zu kommen , wie in der vorherigen Folie es fängt an mit , Entschuldigung . Es fängt an , dass der Lehrer guten Morgen , Klasse sagt und dann fängt er an über Geschichte zu sprechen also , erst einmal könnte das Sprachmodell erkennen , ah wir sind in einem Klassenumfeld aber , sobald mehr Informationen reinkommen , wird es sich spezialisieren auf , ah wir sind in einer Geschichtsumgebung . Wir müssen auf Wörter vorbereitet sein , die etwas mit Geschichte zu tun haben . Also , das sind die Generalisierungs und Spezialisierungsfähigkeiten und es wäre für die weitere Verarbeitung gut wenn wir auch einige semantische Informationen daraus bekommen würden . Die dies ist nur ein grober Überblick darüber , wie ein solches Sprachmodell aussehen könnte . Wie wir haben unten links ein ASR System und um ein Sprachmodell zu entwickeln benötigen wir Daten . Wir brauchen immer Daten . Und ich werde das sofort näher erklären . Okay , Sie nehmen etwas aus Ihren Daten , und Sie entwickeln sehr viele Sprachmodelle und dann , während der Dekodierung müssen Sie irgendeinen Weg finden , diese Sprachmodelle zu vermischen je nachdem , was Sie entdeckt haben . Schauen wir uns die Voraussetzungen für die Datenquellen an . Große Mengen an Text . Man braucht immer sehr viel Text und es muss verschiedene Domänen abdecken und man muss genug Text haben , um ein Sprachmodell für die Domäne zu entwickeln wenn Sie nur ein paar hundert Wörter , oder nur ein paar Tausend Wörter haben , können Sie kein Sprachmodell entwickeln , das gut genug ist . Also jede einzelne Domäne braucht auch sehr viel Text . Und Ihre Datenquelle sollte in der Lage sein man sollte in der Lage sein , Domänen aus Ihrer Datenquelle zu extrahieren und auch Text damit zu verknüpfen eine Datenquelle , die ich gefunden habe ist ein Open-Directory Projekt , das ist ein großes Verzeichnis von Webseiten und Links , ein bißchen wie Yahoo , aber keine Suchmaschine , aber das Verzeichnis , auf das man klicken kann für die Themen geht sehr tief . Es enthält über vier Millionen Links und es ist kostenfrei zugänglich und die Links wurden in fast sechshundert Kategorien sortiert , die wir als Konzepte nutzen können . Wenn man die Kategorienhierarchie benutzt , kann man Texte extrahieren und sie mit den Kategorien und den Konzepten verknüpfen denn wir haben die Voraussetzung , dass wir viel Text benötigen und nur ungefähr neunzigtausend dieser Kategorien enthalten , naja , sind als Konzepte verwendbar . Und um so viel Arbeit zu bekommen was man machen kann ist , man kann der Hierarchie nach unten folgen und dann immer mehr Daten hinzufügen . Also wenn so Ihre Hierarchie aussieht , und Sie wollen ein Sprachmodell entwickeln , fügen Sie rekursiv die ganzen Texte hinzu und den gesamten Teilbaum . Dieser mehr ein besserer Blick auf einen Eintrag . Jeder Eintrag in dem Open-Directory Project enthält Links zu Webseiten , die mit dem Konzept oder der Kategorie verknüpft sind und Links zu Teilkonzepten und sie selbst enthalten auch viele Links . Also wann immer Sie wann immer Sie es entwickeln oder wann immer Sie einen Text mit Ihren Konzepten verknüpfen dies ist eine schematische Ansicht des Open-Directory Projects . Und statt dass man nur einen Knoten nimmt und die Links damit verknüpft , folgt man dem ganzen Teilbaum nach unten . Also , je höher oben Sie sind desto größer Ihr Sprachmodell aber auch desto allgemeiner ist es und je tiefer unten desto spezialisierter wird es . Okay . Wenn Sie einmal herausgefunden haben , welche Texte und welche Konzepte Sie miteinander verknüpfen wollen , den Mechanismus um auszuwählen welches Sprachmodell Sie wann verwenden wollen . Um das zu tun , schauen Sie sich schauen Sie sich Ihr ganzes System an und Sie werden irgendwann merken , Sie haben Text und wir müssen uns an diesen Text anpassen . Das ich habe mich entschieden Attribut-Vektoren zu entwickeln aus dem Text , der mit jedem Konzept verknüpft ist , indem man einfache TFIDFs benutzt und speichere sie als dünn besetzte Vektoren . In einem Komponenten-Selektor . Die Sprachmodelle kann man aus demselben Text entwickeln . Also , Sie haben Sprachmodelle und jedes Sprachmodell hat einen ist mit einem Konzept und einem Attribut-Vektor verknüpft . Naja , jetzt haben Sie eine Suchanfrage für diesen Komponenten-Selektor , was eine Wortsequenz sein wird man entwickelt daraus einen Attribut-Vektor und vergleicht es mit dem Attribut-Vektor , der sich bereits im Selektor befindet und dann kann man herausfinden welches Sprachmodell dem Text am nächsten oder am relevantesten für den aktuellen Text ist . Hier sind wieder die TFIDFs und die Metrik habe ich benutzt , um diese Nähe zu messen war nur eine einfache Kosinus Metrik die schnell war . Denn prinzipiell müssen wir nur das Skalarprodukt von zwei dünn besetzten Vektoren bilden und das kann man es recht schnell machen , wenn man sie beide normalisiert hat . Also , man geht nach oben zurück so viele Konzepte wie Sie wollen . Die einzige neue Begrenzung ist mit wie vielen können Sie arbeiten und man kann diese Ähnlichkeitsmessungen verwenden . Führen Sie sie als Gewichte ein , interpolieren Sie Ihre Daten in das in das ASR System . Also , nur kurz ein Beispiel dazu , was die Kosinus Metrik tut . Man wählt diejenigen Sprachmodelle aus , die am nächsten sind den Vektor betreffend oder den Winkel betreffend . Also hier ist ein Beispiel . Und das ist im Output dieses Komponenten-Selektor wenn es angefragt wird mit einem Satz , der nur von einem Standard , gewöhnlichen Sprachmodell entdeckt wurde und es kommt in den Selektor und es wird dieses Sprachmodell , das es für das beste hält . Und Sie können hier sehen es hat recht spezifische gefunden aber es hat auch ein allgemeineres gefunden , eines , das das gesamte Thema abdeckt . Und es hat auch Gewichte zurückgebracht . Und diese Gewichte werden verwendet , um die Sprachmodelle zu interpolieren nebenbei immer wenn ihr ASR System läuft . Also bis hierher haben wir unser Versprechen gehalten , domänenunabhängig zu sein , wir haben kein Domänenwissen genutzt das zeigt , dass es generalisieren kann und es hat Spezialisierungsfähigkeiten . Und diese Folie gibt auch semantische Informationen zurück. Wir bekommen das praktisch umsonst . Okay , das ist das wie es dann mit unserem ASR System funktioniert . Bis jetzt haben wir nur ein Sprachmodell und wir haben es noch in nichts integriert . In Karlsruhe benutzen wir ein Janus Sprachmodell Janus Erkennungstoolkit . Und es ist der Decoder ist ein Ibis Decoder . Und interessant für Sprachmodelle ist die Ecke unten rechts . Ich habe es vergrößert indem ich einen Komponenten-Selektor zwischen der der linguistischen Wissensquelle hinzugefügt habe und dann ein Set an Sprachmodellen sehr viele Sprachmodele . Diese Komponente ist hier drin und diese Komponente kommuniziert mit dem zuvor entwickelten Komponenten-Selektor und befragt den Selektor mit der bestimmten Wortgeschichte normalerweise , wenn wir über Wortgeschichte sprechen bei Sprachmodellen , dann denken wir an die letzten zwei Wörter , die letzten fünf Wörter vielleicht . Aber hier sende ich mit den letzten zwei Wörtern die die ganze letzte Hypothese des vorherigen Satzes vielleicht sogar die vorherigen fünf oder sechs oder zehn Sätze . Weil wir uns ein breiteres Bild machen wollen . Und für Testzwecke ist es auch interessant ein Basis Standard Sprachmodell zu benutzen einen ersten Pass zu machen und dann die dekodierte Hypothese zu verwenden , um das Sprachmodell für einen zweiten Pass zu adaptieren . Und nur ein paar kurze Worte zum verwendeten Basis Sprachmodell ich benutze zwei unterschiedliche Basis Sprachmodelle für unterschiedliche Tests . In einem Fall habe ich einfach meine gesamte Datenquelle genommen und ein Sprachmodell daraus entwickelt ein einfaches Sprachmodell , das domänenunabhängig ist . Und da ich es mit TC-Star Daten evaluiert habe habe ich auch ein selbstentwickeltes Sprachmodell benutzt , das wir für TC-Star Evaluierung entwickelt haben , die domänenunabhängig war . Es wurde für die Domäne optimiert . Also schauen wir uns ein paar mehr Parameter an . Wir können nicht neunzig tausend Konzepte einbeziehen . Das ist nicht vernünftig . Und wir wollen auch evaluieren war meine Idee , alle Texte in den Teilbaum miteinzubeziehen eine gute Idee ? Füge ich nur Schrott hinzu ? Müssen testen , um sicherzustellen , , dass meine Aussage korrekt war ich muss mir die Wortgeschichte anschauen adaptieren und wie sollen wir adaptieren ? Welche Interpolationsgewichte sollen wir benutzen ? Insbesondere Interpolationsgewichte zwischen einem Basis Sprachmodell und dem adaptiven Teil . Also der der Selektor wird diese Konzeptsprachmodelle zurückbringen , und diese müssen interpoliert werden und für mehr allgemeine Teile , interpolieren wir es auch mit dem Basis Sprachmodell wir müssen auch wissen , welche Parameter wir benutzen müssen . Hm . Nein . Ja . Ist dies herausgekommen ? Okay , jetzt ist alles schwarz . Wissen Sie was ? Oh . Geht das an ? Ich habe das PDF ja . PDF Datei . Ich habe noch Akku , ich habe einfach keinen Bildschirm . Vielleicht drehe ich ihn drehe ihn ? Schließe ihn und öffne ihn wieder ? Entschuldigen Sie die Verzögerung . Er hat es absichtlich gemacht . Ja . Ja . Ich habe ich habe das absichtlich gemacht . Es was ist der Name ? Name der Präsentation . Es sollte einfach pres sein . Pres oder pres-X ? X ist die alte . Pres ist die mit den neuen Logos . Ja . Ja . Ja . Ja . Mhm . Hm . Okay . Während der wieder hochfährt kann ich Ihnen vielleicht ein bißchen was über die Evaluierung erzählen Daten mit denen ich mein Sprachmodell getestet habe . Aber ich habe sie mit TC-Star Entwicklungsdaten gefangen die ich aufgeteilt habe . Ich habe den ersten Teil für meine eigene Entwicklung benutzt und den zweiten Teil für meine Evaluierung . Und haben wir etwas ? Hm . Ich habe sogar einen zweiten Laptop . Es es ja perfektes Beispiel für ignorieren Sie einfach alle Videos . Ja . Folie achtzehn oder neunzehn nein , weiter . Rechts oben in der Ecke . Okay . Okay . Ja . Noch eine . Vielleicht noch eine. Okay , wieder , noch eine . Okay , noch eine . Okay . Okay . Naja okay . Danke . Entschuldigen Sie die technischen Schwierigkeiten . Okay , zurück zur Präsentation . Also wie ich bereits gesagt habe Sie können neunzig tausend Sprachmodelle mit unseren Computern zur Zeit laden . Eigentlich war bei ungefähr eintausend die Grenze und selbst dafür brauchte man über zwanzig Gigabyte Ram und einige Äußerungen , um es zu dekodieren . Also , um es zu reduzieren habe ich einige schnelle Heuristiken durchgeführt , um die Anzahl der geladenen Konzepte zu reduzieren . Und ich benutze nur Konzepte von diesen zwei Knoten , Gesellschaft Regierung und regionales Europa und selbst hier , weil es dort zehntausend Konzepte gab habe ich sie nach Größe geordnet und die oberen zwanzig entfernt und habe dann die größten der Verbleibenden benutzt und wie viele der verbleibenden Größten es sind können Sie auf der nächsten Folie sehen . Hm . Weiter . Ich habe mehrere Sprachmodelle entwickelt , indem ich nur zehn extra Konzeptsprachmodelle benutzt habe überlappend mit tausend extra Konzeptsprachmodellen und habe diese verglichen , um zu sehen ob es geholfen hat mehr Konzepte hinzuzufügen . In diesem Test habe ich auch die Texte des gesamten Teilbaums benutzt und die Geschichte war nur wie ich zuvor schon sagte , ein Basis Sprachmodell ist durch einen Pass durchgelaufen und der wurde benutzt , um den zweiten Pass zu adaptieren . Die Interpolationsgewichte liegen jetzt bei fünfzig fünfzig . Und ich habe zwei unterschiedliche Arten von Basis Sprachmodellen genutzt . Also , wenn wir weitergehen können wir die Ergebnisse von dem Test sehen wie bereits gesagt wurde dies mit dies wurde mit dem TC-Star Entwicklungsset getestet . Dies ist nur ein Einstellen der Parameter , also es hat nur den ersten Teil des Sets benutzt wenn man dieses ODPLM benutzt kann man sehen , welches das allgemeinere Basis Sprachenmodell ist , indem ich einfach mein ganzes domänenunabhängiges Datenset verwende . Es hat eine Wortfehlerrate von einundzwanzig Komma fünf Prozent und sobald ich eintausend Konzeptsprachmodelle hinzugefügt habe hatte ich sie auf zwanzig Komma fünf reduziert . Also wenn wir mit der nächsten Folie weitermachen diese Methode verbessert die domänenunabhängigen Sprachmodelle , also hier habe ich einen Punkt gemacht . Nein , wir können mit dem nächsten Test weitermachen , welcher evaluieren sollte wie wir diesen ganzen Teilbaum des Texts benutzen können . Hat das geholfen ? Oder war das eine schlechte Idee ? All die anderen Parameter bleiben gleich und ich habe das größte Sprachmodell behalten nämlich das , das die oberen eintausend Konzepte benutzt . Jetzt , hier nächste Folie . Ja . Nur um es zu veranschaulichen in einem dieser Tests , in dem mit den eintausend X benutze ich nur den individuellen Text des Knotens und in der Standardversion nur die adaptiven eintausend ich habe den gesamten Teilbaum benutzt , also wenn wir zur nächsten Folie kommen nur den Text des Knotens zu benutzen war miserabel . Es hat einfach eine sehr schlechte Leistung erbracht . Wobei als wir den gesamten Text des Teilbaums benutzt haben , waren wir in der Lage genug Text zu bekommen , um ein ordentliches Sprachmodell zu entwickeln . Und nur falls irgendjemand behauptet , dass , indem ich diese zwei Knoten ausgewählt habe , um meine Konzeptsprachmodelle zu wählen , dass ich damit geholfen habe . Ich habe den gesamten Text einbezogen alle Konzeptsprachmodelle und habe daraus ein Sprachmodell entwickelt und habe es wieder fünfzig-fünfzig mit dem Basis Sprachmodell interpoliert und habe dieses ODPLM gemischte Sprachmodell getestet und es war auch nicht so gut wie war nicht einmal so gut wie das ODPLM Sprachmodell am Anfang . Also hier können wir sehen , dass indem wir die selektive Methode benutzen und basierend auf den Gewichten des Selektors interpolieren sich tatsächlich die Leistung verbessert hat . Wir können zur nächsten Folie übergehen . Okay . Als nächstes müssen wir evaluieren , an welche Geschichte wir es anpassen müssen ? Bis jetzt haben wir nur das Basis Sprachmodell benutzt , die Hypothese aufgestellt und adaptiert . Also wir werden den Test beibehalten und wir werden auch evaluieren was er leistet , wenn wir die letzte Hypothese benutzen . Naja , die Hypothese ist dekodiert in in dem vorherigen Schritt oder in der vorherigen Äußerung oder in den vorherigen Äußerungen , wie viele auch immer es sind . Jetzt können wir zur nächsten Folie kommen . Und hier können wir sehen , dass naja an die Baseline Hypothese zu adaptieren , die wann immer es ein plus-HB gibt , bedeutet dies Hypothese als Baseline . Das bringt eine bessere Leistung , als wenn es sich anpasst an ah . Danke . Das bringt eine bessere Leistung , als wenn es sich an die vorherige Hypothese anpasst , die immer da ist , wenn es ein H-eins gibt . Und leider hat dies hat dies hier keine bessere Leistung erbracht als die Baseline . Also wir müssen es hier etwas besser einstellen . Wir gehen zur nächsten Folie über . Hier können wir eine ähnliche Situation sehen . Wir fügen das adaptive einhundert oder eintausend Sprachmodell mit unterschiedlicher Geschichtslänge ein dies hier ist ohne das Basis Sprachmodell . Dies ist ein Pass . Und , wenn wir die Perplexität berechnen geht dies in diesem hier runter , aber geht kaum runter wenn man das Sprachmodell benutzt , das zuvor per Hand gebaut wurde . Also wir können es auf unserem auf unserem domänenunabhängigen Sprachmodell bisher verbessern , aber nicht besonders auf einem domänenabhängigen Sprachmodell . Also , wenn wir jetzt nur nächsten Folie kommen ? Vielleicht geben wir diesem domänen unabhängigen Teil zu viel Gewicht . Also ich habe versucht , das Gewicht des optimierten domänenabhängigen Sprachmodells zu vergrößern , um zu sehen ob wir so ein paar um zu sehen ob wir so ein paar Verbesserungen bewirken können . Und auf der nächsten Folie , wieder habe ich alle Parameter gleich gelassen wir im vorherigen Test und wir sind wieder dabei und benutzen die zwei Pass Methode benutzen die Hypothese des Basis Sprachmodells um zu adaptieren . Hier sehen Sie , dass wann auch immer Sie tatsächlich das Gewicht erhöhen und es wirklich reduzieren Sie eine leichte Verbesserung bekommen können und es scheint , dass dieses Sprachmodell sich bereits soweit an die Domäne angepasst hat , wie es möglich ist , so ziemlich . Also ein paar mehr adaptive Teile hinzuzufügen hat die Bewertung nicht besonders verbessert . Aber nachdem ich diese Parameter evaluiert hatte , habe ich können wir zur nächsten Folie übergehen ? Ich habe die verbleibenden Daten im Entwicklungsset evaluiert indem ich unterschiedliche Gewichte benutzt habe und dies ist auch wieder ein domänenabhängiges Sprachmodell . Ich möchte versuchen , ob ich es auf dem domänenabhängigen Sprachmodell verbessern kann . Und , wenn wir die Bewertungen sehen können oh zurück . Können wir ein bißchen zurückgehen ? Okay . Danke . Wir können die Bewertungen sehen , und leider hat es sich nicht auf dem domänenabhängigen Sprachmodell verbessert bis jetzt , aber dies ist immer noch nur der erste Teil davon . Also , können wir zur nächsten Folie gehen ? Mhm . Also , um zusammenzufassen die guten Nachrichten sind , dass wir in der Lage waren , domänenunabhängige Sprachmodelle zu verbessern die Bewertung zu erhöhen bei einem um ein volles Prozent und wir haben herausgefunden , dass die zwei Pass Methode bis jetzt die beste Methode ist . Ich würde gerne mehr Tests zu der Geschichte machen . Es sollte nur bemerkt werden , dass es recht langsam läuft zur Zeit . Beim Decoding ist dieses Test set gewachsen , die Decoding Zeit um sechs Stunden , wenn nur das Basis Sprachmodell benutzt wird auf ungefähr neunzehn Stunden indem naja , ich glaube eintausend Konzeptsprachmodelle benutzt werden . Also , Sie können nicht einfach irgendetwas testen , sondern Sie müssen den Test sorgsam auswählen . Wir haben bessere Interpolationsgewichte gefunden und wir haben sie bis jetzt noch für nichts verwendet , aber es gibt Ihnen einige semantische Markierungen für Äußerungen und auch Gewichte zu diesen Markierungen . Also anderes Entwicklungsset , wir haben eine Verbesserung über das domänenabhängige Sprachmodell erreicht , aber das hat sich nicht als Verbesserung auf das Evaluierungsset ausgewirkt . Wir kommen zur nächsten Folie . Dies ist nur ein erster Entwurf eines Sprachmodells es kann noch sehr viel daran gearbeitet werden . Insbesondere naja , es beschleunigen und was sehr interessant wäre , ist ein dynamisches Vokabular . Also Sie können es dynamisch anpassen basierend auf den Konzepten , die sie finden . Ich bin sehr interessiert daran , wie sich das entwickeln wird . Und es muss nicht in der automatischen Spracherkennung sein . Man kann es auch in der maschinellen Übersetzung benutzen . Insbesondere wenn Sie es entwickeln aus Konzepten entwickeln müssen , wo Sie das gleiche Konzept in zwei unterschiedlichen Sprachen haben . Also vielen Dank , dass Sie trotz der technischen Probleme hier waren . Vielen Dank für Ihre Aufmerksamkeit . Gibt es irgendwelche Fragen ? Okay , danke . Guten Tag . Ich werde meine Arbeit zu großen Korpora vorstellen und zeigen , wie wir Rauschdaten aus dem Gigakorpus gefiltert haben und wie wir die Verarbeitungszeit beschleunigen konnten . Und dies wird an zwei Aspekten gezeigt werden , Filtern , der erste Aspekt ist das Filtern und dann parallelisieren wir die Phrasenbewertung . So , zuallererst die parallelen Korpora , die wir alle kennen , weil sie für die maschinelle Übersetzung sehr wichtig sind , und nicht nur für die maschinelle Übersetzung , sondern auch für andere Aufgaben der natürlichen Sprachverarbeitung . Und sie können wie der EPPS-Korpus oder der UN-Korpus manuell erstellt werden . Und Korpora dieser Art haben die bessere Qualität und aber sie sind sehr begrenzt , was Größe und Typen angeht . Aber wir können auch automatisch die Daten aus dem Internet sammeln und Korpora dieser Art haben haben eine hohe Verfügbarkeit , aber ihre Qualität ist begrenzt . Und der Gigakorpus ist einer dieser dieser durch Webcrawl erstellten Korpora , wurde zweitausendneun von Chris Callison-Burch gesammelt und ist immer noch zu verrauscht , selbst nachdem der Autor sie mithilfe von Heuristiken gereinigt hat . Und , nur zum Vergleich , habe ich die Anzahl der Sätze im Gigakorpus aufgeführt , welche sich auf zweiundzwanzig komma fünf Millionen Sätze beläuft , und das können Sie mit dem EPPS-Korpus vergleichen , der über einen Zeitraum von vierzehn Jahren aus Veranstaltungen im Europaparlament gesammelt wurde , der fünf Prozent dieser Größe besitzt . Und welche Probleme haben wir mit dem Gigakorpus ? Ja , eines unserer Probleme ist , wie Sie hier sehen , unbrauchbare Daten in dem im Korpus . Wir können außerdem beschädigte Zeilen oder beschädigte Sätze mit Bewertungen , Fehler im Satzalignment , sehen , wie Sie hier sehen können . Oder sogar einige Paare aus anderen Sprachen . Und zudem könnte es aufgrund seiner Größe ganze Tage dauern , das Training zu beenden . Also , das erste , was wir zur Behandlung der Daten unternommen haben , ist , dass wir es aus dem Rauschen herausgefiltert haben . Und wir haben dafür verschiedene Ansätze . Also , wir haben versucht , diese Daten automatisch vom Rauschen zu befreien indem wir ausschließlich lexikalische Merkmale verwendet haben . Und dafür haben wir ein Trainingsset und ein Testset aus sauberen Daten erstellt , die uns aus vorhergehenden Evaluationen zur Verfügung standen , und zwar dem NC-dev Zweitausendsieben und NC-devtest Zweitausendsieben , für die Leute , die schon einmal in der Evaluation tätig waren , sie kennen diese Datensätze . Und um also die falschen Beispiele zu erstellen , tauschen wir es dreißig Prozent der der Ausgangsseite tauschten die Positionen auf der Ausgangsseite , so dass sie falsche Beispiele bilden . Und wir brauchten auch lexikalische Wörterbücher und haben sie aus den sauberen Daten , EPPS und NC , reproduziert . Also der erste Ansatz , wir bezeichnen ihn als naiven Ansatz , also wir dachten einfach , dass eine lexikalische Bewertung alleine ausreichen würde , um zwischen guten und schlechten Paare zu unterscheiden , und es stellt sich heraus , dass dies nicht funktioniert wie erwartet . Also die Bewertungsformel ist berücksichtigt die lexikalische Bewertung und indem wir die Konstante außerhalb der Multiplikation multiplizieren geben wir den längeren Sätzen eine größere Chance , den Filter zu passieren , wenn wenn sie könnten . Und mit diesem Ansatz bekamen wir ein sehr schlechtes F-Maß . So achtundfünfzig Prozent . Und dann haben wir mit diskriminativen Ansätzen weitergemacht . Also im diskriminativen Ansatz haben wir zwei Klassen . Entweder wir entfernen ein Paar , was den Wert null bedeutet , oder wir behalten das Paar , Wert eins . Und die Merkmale , die wir verwendet haben , sind der Unterschied zwischen der Wortanzahl auf Ausgangs und Zielseite . Und wir erwarten , dass je niedriger die Anzahl , je niedriger der Unterschied , desto besser die desto besser die Korrespondenz zwischen Ausgangs und Zielseite , der IBM-eins-Wert , und wir erwarten je höher desto besser . Und die Anzahl der nicht zugeordneten Wörter zwischen Ausgangs und Zielseite , und hier erwarten wir , je mehr nicht zugeordnete Wörter , desto schlechter das Paar . Und die maximale Wortanzahl , ein gegebenes Wort ist ebenfalls zugeordnet , und hier spricht man von Fertilität . Und je höher die Fertilität , umso schlechter wäre dann das Paar . Und der erste Ansatz , den wir ausprobiert haben , ist Regression . Und durch eine Linearkombination der Merkmalswerte haben wir die Lambdas optimiert indem wir das Powell-Suchverfahren (nicht gefunden!) gegen die Summe der quadratischen Fehler angewandt haben und wir haben ein F-Maß von neunundneunzig Prozent erhalten . Es ist schlecht , ja . Und der nächste Ansatz , den wir ausprobiert haben , ist die logistische Regression . Und wir haben sie mit dem BFGS-Algorithmus optimiert . Und um die Wahrscheinlichkeit der Trainingsdaten zu maximieren . Und wir haben eine viel bessere Trefferquote erzielt und auch eine viel bessere Präzision , was uns ein F-Maß von vierundneunzig oder fast fünfundneunzig Prozent eingebracht hat . Wir haben außerdem den Maximum-Entropie-Klassifikator ausprobiert , der mit dem Mega-M-Paket trainiert wurde . Und wir er hatte eine etwas bessere Präzision , aber eine schlechtere Trefferquote und dann brachte es ein schlechteres F-Maß . Die letzte Methode , die wir ausprobiert haben , ist der SVM-Klassifikator , der mit dem SVM-Light-Paket trainiert wurde . Und er brachte eine viel bessere Präzision und eine viel bessere Trefferquote . Und das brachte uns ein F-Maß von siebenundneunzig Prozent . Und die Ergebnisse . Aus den zweiundzwanzig komma fünf Millionen Sätzen haben wir sechzehn komma acht ausgewählt , und das hat uns dazu gebracht , rund zweiundzwanzig Prozent des Korpus zu verwerfen . Und wir haben diese Trainingsdaten in unseren Systemen bei den letzten beiden Evaluationen verwendet , WMT und IWSLT . Und Sie können den Zunahme sehen , den wir bei Französisch-Englisch erzielt haben . Bei WMT ist es etwa null komma sieben bei der Entwicklung und den Testsets . Und bei IWSLT ist es noch besser . Und es ist ungefähr ein Bleu-Punkt für beide , Entwicklung und Test . Das ist alles zum Thema Filtern . Kommen wir nun zum Parallelisieren und wie Alexander heute Morgen erwähnt hat , ist die Phrasenbewertung oder die die standardmäßige Phrasenbewertung ist nur ein Schritt beim Aufbau des Übersetzungsmodells . Es kommt nach der Phrasenextraktion und in der wir die korrespondierenden Möglichkeiten für Phrasen wie die hier gezeigte berechnen . Und dafür müssen wir die Ausgangs und Zielsätze zählen . Und deshalb müssen wir die gleichartigen Paare oder gleichartige Sätze zusammenbringen , um die Häufigkeit zu zählen . Und dann brauchen wir eine sortierte Liste der extrahierten der extrahierten Phrasen . Moses nimmt dafür die standardmäßige Sortierung vor . Unix-Befehl . Und hier ist ein Beispiel mit Zeiten , für die jeweiligen Korpora . Sie können sehen , dass es bei dem großen Korpus , der alle Daten enthält , bis zu mehreren Tagen dauern kann . Also , wir haben zwei verschiedene Ansätze durchgeführt , einen für geteilte Speicherarchitekturen , in dem wir die STXXL-Bibliothek benutzt haben , die ein externer Speichercontainer ist . Und der Prozess ist ist wie folgt . Also , wir haben eine SMP-Maschine mit mehreren Kernen , also haben wir für jeden Kern einen Thread und jeder Thread verarbeitet lokal , also ich meine die Sortierung , indem er die Sortierung verarbeitet . Also sortiert jeder Thread seine lokalen Daten und dann erfolgt die Aggregation oder das Merging global , also das Kalkulieren oder Berechnen der der entsprechenden Möglichkeiten . Also einmal für Ziel und einmal für Ausgang . Und danach haben wir einen hybriden Ansatz ausprobiert und dafür haben wir DEMsort benutzt , das ist ein verteilter externer Sortieralgorithmus für Speicher , der selbst auf den STXXL-Containern basiert , und und wir haben außerdem die MPI-Bibliothek benutzt . Und der Prozess ist wie folgt , also für jeden Knoten oder für jeden Prozess hat er lokale Daten , also sortiert er und dann aggregiert er lokal , aber vor der lokalen Aggregation müssen wir sicherstellen , dass jeder Prozess den richtigen Datenumfang hat . Dafür haben wir eine All-to-All-Operation nach direkt nach der Sortierung . Und hier ist das Problem , dass in dem Aggregationsvorgang manche Knoten einfach viel schneller fertig werden konnten als andere , das heißt , die Zeit variiert zu stark . Also dafür benötigen wir möglicherweise einige zwischen den Knoten . Ich zeige hier einen Vergleich zu den vorher genannten Zeiten für Moses und unseren Zeiten . Also er halbiert die Zeit mindestens mit sechzehn Kernen . Und schließlich ein Vergleich zwischen allen umgesetzen Methoden also die verteilte , unausgeglichene , konnte die Zeit mit einer Beschleunigung von bis zu etwa neunzig Prozent verkürzen . Und wir haben sogar die Beschleunigung gesteigert , indem wir die Lastenen zwischen den Knoten ausgeglichen haben . Und das ist der letzte Punkt , über den ich sprechen wollte . http://www.ted.com/talks/trevor_timm_how_free_is_our_freedom_of_the_press TED Talk Subtitles and Transcript: In den USA hat die Presse gemäß erstem Verfassungszusatz das Recht, geheime Informationen zu veröffentlichen, die die Öffentlichkeit kennen sollte. Überwachung durch die Regierung aber macht es immer riskanter für "Whistleblower" – fast immer die Quelle für wichtige Artikel zur nationalen Sicherheit seit dem 11. September – ihre Informationen zu teilen. In diesem kurzen, informativen Vortrag berichtet Trevor Timm, TED Fellow und Mitgründer der Freedom of the Press Foundation, von den jüngsten Maßnahmen der US-Regierung gegen Personen, die Straftaten und Ungerechtigkeit aufdecken, und wirbt für Technologien, die helfen, dies sicher und anonym zu tun. talks, Internet, TED Fellows, corruption, crime, government 2507 Trevor Timm: Wie frei ist die US-Pressefreiheit? Nadine Hennig Toni Klemm Das ist James Risen. Sie kennen ihn vielleicht, weil er als New-York-Times-Reporter den Pulitzer-Preis gewann. Lange bevor je jemand von Edward Snowden gehört hatte, schrieb Risen ein Buch, in dem er spektakulär veröffentlichte, dass die NSA illegal Telefone von Amerikanern abgehört habe. Es ist aber ein anderes Kapitel, das einen bleibenden Eindruck hinterlassen sollte. Darin beschreibt er eine katastrophale US-Geheimdienstoperation, in der die CIA dem Iran buchstäblich Entwürfe für eine Atombombe übergab. Falls das verrückt klingt, lesen Sie es. Es ist eine unglaubliche Geschichte. Aber wissen Sie, wem das Kapitel gar nicht gefiel? Der US-Regierung. Fast 10 Jahre lang hat die Regierung gegen Risen ermittelt und ihn aufgefordert, seine angeblichen Quellen zu nennen. In diesem Zug wurde er zum Symbol für das Muster der Regierung, Whistleblower zu verurteilen und Journalisten zu bespitzeln. Laut Ersten Verfassungszusatz haben die Medien das Recht, geheime Informationen zu veröffentlichen. Aber es ist unmöglich, dieses Recht zu anwenden, wenn Medien diese Informationen nicht bekommen und wenn sie Identität der Mutigen nicht schützen können, die sie preisgeben. Also als die Regierung bei Risen anklopfte, tat er etwas, was viele mutige Reporter bereits vor ihm taten: er weigerte sich und sagte, dass er lieber ins Gefängnis gehen würde. Von 2007 bis 2015 lebte Risen also mit dem Risiko, ins Gefängnis zu gehen. Doch dann, nur Tage vor dem Prozess, passierte etwas Außergewöhnliches. Plötzlich, obwohl sie jahrelang angaben, dass es unerlässlich für ihren Fall wäre, wurden die Forderungen der Regierung an Risen fallen gelassen. Der Grund: In der Zeit elektronischer Überwachung können die Reporter und Quellen sich immer weniger verstecken. Anstatt zu scheitern und Risen zum Aussagen zu bringen, könnten das auch seine digitalen Fußspuren für ihn erledigen. Und so haben sich die Ermittler, ohne sein Einverständnis, seine Telefonnachweise geheim besorgt, genauso wie seine E-Mail-Daten, Finanz- und Bankinformationen, seine Kreditauskunft, und sogar Reisenachweise mit der Liste seiner Flüge. Inmitten dieser Informationen fanden sie Beweise, die sie nutzten, um Jeffrey Sterling, einen CIA-Whistleblower und Risens vermeintliche Quelle, zu verurteilen. Leider ist das nur einer von vielen Fällen. Präsident Obama versprach bei seinem Antritt, Whistleblower zu schützen. Aber stattdessen hat die Justiz mehr verurteilt als alle US-Regierungen vor ihm zusammen. Jetzt können Sie sich vorstellen, wie das ein Problem sein kann, besonders weil die Regierung zu viel von ihrer Arbeit als geheim einstuft. Seit dem 11. September war fast jeder Artikel über nationale Sicherheit das Ergebnis davon, dass ein Whistleblower zu einem Journalisten ging. Wir setzen also die Pressearbeit aufs Spiel, die durch den ersten Verfassungszusatz geschützt werden soll, weil die Regierung immer mehr Möglichkeiten hat, alle auszuspionieren. Aber genauso wie Technologie der Regierung erlaubt, die Rechte von Reportern zu umgehen, kann die Presse auch Technologien nutzen, um ihre Quellen besser zu schützen. Und zwar können sie das von dem Moment an, in dem sie Kontakt aufnehmen, anstatt im Nachhinein, im Zeugenstand. Heute gibt es Kommunikationssoftware, die es noch nicht gab, als Risen sein Buch geschrieben hatte, und es ist wesentlich sicherer als normale E-Mails oder Telefonanrufe. Eine solche Technologie ist SecureDrop, ein Open-Source-Übermittlungssystem für Whistleblower, das ursprünglich von der Internetberühmheit, dem von uns gegangenen Aaron Swartz, entwickelt wurde, und ist heute von der Freedom of the Press Foundation, bei der ich arbeite, weiterentwickelt worden. Anstatt eine E-Mail zu verschicken, gehen Sie auf eine Nachrichten-Website, so wie die hier der Washington Post. Dort können Sie Dokumente hochladen oder Informationen verschicken, so wie bei jedem gewöhnlichen Kontaktformular. Diese werden dann verschlüsselt und auf einem Server gespeichert, zu dem nur die jeweilige Nachrichtenagentur Zugang hat. Also kann die Regierung nicht mehr Informationen heimlich beschaffen, und viele der Informationen, die sie anfordern würde, wäre von vornherein nicht verfügbar. SecureDrop ist aber nur ein kleiner Teil des Ganzen, um die Pressefreiheit im 21. Jahrhundert zu schützen. Leider entwickeln Regierungen auf der ganzen Welt immer neue Spionagetechnologien, die uns alle gefährden. Es ist an uns sicherzustellen, dass nicht nur Technologiekenner wie Edward Snowden einen Möglichkeit haben, Missetaten zutage bringen. Es ist genauso wichtig, dass wir den nächsten Whistleblower schützen, der über Missstände bei der Versorgung von Soldaten bescheid weiß und von überfüllten Krankenhäusern berichten will. Oder den nächsten Umweltmitarbeiter, der Alarm zum verseuchten Wasser von Flint schlägt. Oder einen Wallstreet-Insider, der uns vor der nächsten Finanzkrise warnt. Immerhin wurden diese Technologien nicht nur für diejenigen gemacht, die Verbrechen aufdecken wollen, sondern um unser aller Verfassungsrechte zu schützen. Danke. http://www.ted.com/talks/robert_palmer_the_panama_papers_exposed_a_huge_global_problem_what_s_next TED Talk Subtitles and Transcript: Am 3. April 2016 wurde das größte Datenleck der Geschichte veröffentlicht. In den "Panama Papers" ist zu sehen, wie die Reichen und Mächtigen enorme Geldsummen in Steueroasen versteckt haben. Was bedeutet das? Wir baten Robert Palmer von Global Witness um eine Erklärung. talks, activism, big problems, business, corruption, economics, global issues, government, identity, inequality, investment, law, money, news, poverty 2478 Robert Palmer: Die "Panama Papers" enthüllten ein massives globales Problem. Was nun? Asma Ghali Angelika Lueckert Leon [Am 3. April 2016 wurde das größte Datenleck der Geschichte veröffentlicht.] [Die "Panama Papers" enthüllen, dass Reiche und Mächtige] [enorme Geldsummen in Steueroasen versteckt haben.] [Was bedeutet das?] [Wir baten Robert Palmer von Global Witness um eine Erklärung.] Diese Woche wurden wir von Nachrichten über ein Leck von 11 Millionen Dokumenten der in Panama ansässigen Anwaltskanzlei Mossack Fonseca Die Veröffentlichung dieser Dokumente gibt einen kleinen Einblick in die geheime Welt der Steueroasen. Wir erhalten einen Eindruck davon, wie Kunden, Banken und Rechtsanwälte zu Firmen wie Mossack Fonseca gehen und sagen: "Okay, wir brauchen ein anonymes Unternehmen. Können Sie das einrichten?" Wir sehen tatsächlich die E-Mails, den Austausch von Nachrichten, wie das ganze System funktioniert, wie es arbeitet. Dies hat bereits zu ersten sehr direkten Konsequenzen geführt. Islands Premierminister ist zurückgetreten. Auch gibt es Berichte, dass ein Verbündeter des brutalen syrischen Diktators Baschar al-Assad Briefkastenfirmen in Steueroasen hat. Es wird behauptet, dass eine Spur von 2 Milliarden US-Dollar zu Russlands Präsident Wladimir Putin führt, über einen engen Freund aus Kindertagen, einem berühmten Cellisten. Nun wird es da draußen eine Menge reicher Leute und andere geben, die nervös auf die nächste Veröffentlichung warten, und auf die nächsten enthüllten Dokumente. Nun klingt das wie der Plot eines Agententhrillers oder eines John-Grisham-Romans. Es scheint weint entfernt von Ihnen, mir, gewöhnlichen Leuten. Warum sollte uns das was angehen? Doch die Wahrheit ist: Wenn die Reichen und Mächtigen in der Lage sind, ihr Vermögen in Steueroasen zu verstecken und nicht alle ihre Steuern zu bezahlen, dann bedeutet dies weniger Geld für wichtige öffentliche Dienste wie Gesundheitswesen, Bildung, Straßen. Und das betrifft uns alle. Für meine Organisation, Global Witness, sind diese Enthüllungen phänomenal. In der ganzen Welt diskutieren Medien und führende Politiker, wie geheime Steueroasen von einigen wenigen dazu genutzt werden, ihr Vermögen zu verstecken und zu verschleiern -- etwas, das wir seit zehn Jahren diskutieren und enthüllen. Ich denke, vielen Menschen erscheint diese ganze Welt sehr verwirrend, und es ist schwer zu verstehen, wie diese Steueroasen funktionieren. Ich stelle es mir immer wie eine Matrjoschkapuppe vor. Man hat also eine Firma in einer anderen Firma, in einer weiteren Firma, was es fast unmöglich macht, wirklich zu verstehen, wer hinter diesen Gebilden steckt. Es kann sehr schwierig sein für Strafverfolgungs- und Steuerbehörden, sowie für Journalisten oder die Zivilgesellschaft wirklich zu verstehen, was Sache ist. Ich finde es auch interessant, dass es in den USA weniger Berichte über diese Angelegenheit gibt. Vermutlich, weil es bisher keine prominenten Amerikaner gab, die in diesen Enthüllungen, diesem Skandal vorkamen. Nun ist es nicht so, dass es keine reichen Amerikaner gibt, die ihr Vermögen in Steueroasen verstecken. Doch durch das Prinzip, nach dem diese Steueroasen funktionieren, hat Mossack Fonseca weniger amerikanische Kunden. Hätten wir ein Datenleck von den Cayman Islands oder sogar aus Delaware, Wyoming oder Nevada, würden wir viel mehr Fälle und Beispiele sehen, die Verbindungen in die USA haben. In der Tat ist es so, dass man in manchen US-Staaten weniger Informationen braucht, weniger Informationen angeben muss, um eine Firma zu gründen, als um einen Bibliotheksausweis zu bekommen. Diese Art der Intransparenz in den USA hat es Angestellten von Schulbezirken erlaubt, Schulkinder abzuzocken. Es hat Betrügern erlaubt, besonders anfällige Anleger abzuzocken. Es ist diese Art von Verhalten, die uns alle betrifft. Hier bei Global Witness wollten wir herausfinden, wie all dies in der Praxis aussieht. Wie funktioniert das eigentlich? Also schickten wir einen verdeckten Ermittler in die Büros von 13 Anwaltsfirmen in Manhattan. Unser Ermittler gab sich als afrikanischer Minister aus, der verdächtiges Geld in die USA bringen wollte, um ein Haus, eine Yacht, einen Privatjet zu kaufen. Uns schockierte es wirklich, dass alle bis auf einen Anwalt unserem Ermittler Vorschläge machten, wie er sein Geld transferieren könnte. Dies waren alles Vorbesprechungen. Keiner dieser Anwälte nahm uns als Klienten an, und natürlich wurde niemandem dabei Geld übergeben. Doch es zeigt das Problem mit diesem System. Es ist auch wichtig, dies nicht als Einzelfälle zu betrachten. Es geht nicht um einen einzelnen Anwalt, der unserem verdeckten Ermittler Vorschläge unterbreitet hat. Es geht nicht um einen einzelnen Spitzenpolitiker, verwickelt in einen Skandal. Es geht darum, wie das System funktioniert, durch das Korruption, Steuerflucht, Armut und Instabilität etabliert werden. Und um dies zu bewältigen, müssen wir die Spielregeln ändern. Wir müssen die Regeln ändern, um diese Art von Verhalten zu erschweren. Das mag alles sehr trübsinnig klingen, als ob wir nichts dagegen tun könnten; als ob sich nichts je verändert hätte; als ob es immer die Reichen und Mächtigen geben wird. Aber als geborener Optimist sehe ich durchaus, dass sich einiges zu ändern begonnen hat. In den letzten paar Jahren haben wir Vorstöße hin zu mehr Transparenz gesehen, was die Besitzer von Firmen betrifft. Das Thema fand politische Aufmerksamkeit durch den britischen Premierminister David Cameron auf dem G8-Gipfel im Jahr 2013 in Nordirland. Seitdem erfasst die EU in zentralen Registern auf nationaler Ebene, wer wirklich hinter Firmen in Europa steckt, und wer sie kontrolliert. Eine der unangenehmen Tatsachen ist, dass die USA hierbei hinterherhinken. Vertreter beider Parteien haben einen Gesetzesentwurf in beiden Parlamentskammern eingebracht, doch dieser macht nicht den Fortschritt, den wir gern sehen würden. Wir würden wirklich gerne sehen, wie diese Panama-Enthüllungen, dieser riesige Einblick in die Welt der Steueroasen, als Mittel genutzt wird, um in den USA und global für mehr Transparenz zu sorgen. Für uns bei Global Witness ist dies ein Moment für Veränderungen. Wir brauchen gewöhnliche Menschen, die wütend werden, wenn sie sehen, wie andere Menschen ihre wahre Identität hinter Scheinfirmen verstecken können. Wir brauchen Führungskräfte in der Wirtschaft, die aufstehen und sagen: "Intransparenz ist nicht gut für das Geschäft." Wir brauchen führende Politiker, die das Problem erkennen und sich dafür einsetzen, durch Gesetze diese Art der Intransparenz zu beenden. Zusammen können wir die Intransparenz, die jetzt noch diese Art von Steuerflucht, Korruption und Geldwäsche ermöglicht, endlich beenden. http://www.ted.com/talks/joe_gebbia_how_airbnb_designs_for_trust TED Talk Subtitles and Transcript: Joe Gebbia, Mitbegründer von Airbnb, baute sein ganzes Unternehmen auf der Hoffnung auf, dass Menschen einander genug vertrauen würden, um beieinander zu übernachten. Wie schaffte er es, dass Fremde nicht mehr automatisch als gefährlich wahrgenommen werden? Mit dem richtigen Design. Mit bisher 123 Millionen vermittelten Übernachtungen zeigt Gebbia seine Vision von einer Kultur des Teilens auf, in der Design helfen kann, Beisammensein und Beziehungen statt Einsamkeit und Abschottung auszubauen. talks, behavioral economics, business, collaboration, community, culture, design, economics, entrepreneur, future, innovation, potential, privacy, product design, relationships, social change, technology, urban planning 2447 Joe Gebbia: Wie Airbnb Vertrauen ein Gesicht gibt Nadine Hennig Lea Seeber Das ist die Geschichte, wie ich einmal fast entführt und im Kofferraum eines roten Mazdas gelandet wäre. Einen Tag, nachdem ich mein Designstudium abgeschlossen hatte, machte ich einen Hinterhofverkauf. Ein Typ im roten Mazda blieb stehen und schaute sich meine Sachen an. Er kaufte eins meiner Kunstwerke. Er war allein in der Stadt und machte gerade einen Roadtrip durchs ganze Land. Danach würde er zum Friedenscorps gehen. Ich lud ihn auf ein Bier ein. Er erzählte mir begeistert, wie er die Welt verändern wollte. Es wurde spät. Ich wurde müde. Während wir die Rechnung bezahlten, machte ich den Fehler ihn zu fragen: "Wo schläfst du denn heute Nacht?" Er machte die ganze Sache noch schlimmer: "Ich weiß es noch nicht." Und ich dachte: "Oh, Mann! Was mach ich jetzt?" Wer kennt die Situation nicht? Muss ich jetzt einen Schlafplatz anbieten? Aber ich hab ihn doch gerade erst kennengelernt! Er sagt zwar, er würde zum Friedenskorps gehen, aber ich weiß doch nicht, ob er das wirklich plant. Ich will nicht entführt im Kofferraum eines Mazdas landen! Das ist ein kleiner Kofferraum! Dann hörte ich mich sagen: "Ich habe eine Luftmatratze. Du kannst in meinem Wohnzimmer schlafen." Eine Stimme in meinem Kopf sagte: "Äh, wie bitte?" Nachts lag ich dann im Bett, ich starrte an die Decke und dachte: "Oh Mann! Was hab ich mir da eingebrockt? Ein Wildfremder schläft in meinem Wohnzimmer. Was, wenn er verrückt ist?" Ich bekam eine solche Angst, dass ich aus dem Bett stieg, auf Zehenspitzen zur Tür schlich, und meine Schlafzimmertür abschloss. Aber er war gar nicht verrückt. Wir sind immer noch in Kontakt. Das Kunstwerk, das er von mir gekauft hatte, hängt heute in seinem Klassenzimmer. Er ist jetzt Lehrer. Das war meine erste Erfahrung als Gastgeber. Es hat meinen Blickwinkel komplett verändert. Vielleicht waren die Menschen, die mir in der Kindheit als Fremde verkauft wurden, eigentlich Freunde, die nur darauf warteten, entdeckt zu werden? Menschen auf meiner Luftmatratze zu beherbergen, wurde normal für mich. Als ich nach San Francisco zog, nahm ich die Luftmatratze mit. Machen wir einen Zeitsprung, zwei Jahre später... Ich bin arbeitslos, fast pleite, mein Mitbewohner zieht aus und die Miete wird erhöht. Ich erfuhr, dass es zu jener Zeit eine Design-Konferenz in der Stadt gab. Alle Hotels waren ausgebucht. Ich glaube, Kreativität kann es schaffen, Angst in Spaß zu verwandeln. Ich schrieb meinem besten Freund und neuen Mitbewohner Brian Chesky: "Brian, ich hab überlegt, wie wir etwas dazu verdienen könnten. Unsere Wohnung wird zu einem Designer-Bed-and-Breakfast. Junge Designer können bei uns übernachten, WLAN und ein Schreibtisch inklusive, dazu eine Matratze und jeden Morgen Frühstück. Ha!" Wir erstellten eine Website und gründeten so "Luftmatratze und Frühstück" [AIRBed aNd Breakfast = Airbnb]. Drei glückliche Gäste durften bei uns für 20 Dollar auf der Luftmatratze auf Holzfußboden schlafen. Sie fanden es super, und wir auch. Ich bin mir sicher, unsere Käse-Schinken-Omeletts schmeckten komplett anders, weil wir sie für unsere Gäste machten. Wir tourten mit ihnen durch die ganze Stadt. Als wir unseren letzten Gast verabschiedeten und die Tür ins Schloss fiel, starrten Brian und ich uns an. Hatten wir gerade entdeckt, dass wir gleichzeitig neue Freunde finden und unsere Miete bezahlen konnten? Die Dinge kamen ins Rollen. Mein ehemaliger Mitbewohner, Nate Blecharczyk, schloss sich uns als Entwickler an. Wir wollten herausfinden, ob man daraus ein Geschäftskonzept machen könnte. So präsentierten wir uns den Investoren: "Wir möchten eine Website erstellen, auf der Leute öffentlich Bilder von ihren Privaträumen posten, ihren Schlafzimmern, ihren Bädern -- die Art Zimmer, deren Türen man schließt, wenn Besuch vorbei kommt. Über das Internet können sie dann wildfremde Menschen dazu einladen, bei ihnen zu übernachten. Das wird das nächste große Ding!" Wir warteten, dass die Rakete zünden würde. Tat sie aber nicht. Niemand, der noch ganz bei Trost ist, würde in ein Geschäft investieren, das Fremden erlaubt, in Wohnungen anderer Leute zu schlafen. Warum? Weil wir als Kinder alle gelernt haben, dass Fremde gefährlich sind. Wenn man ein Problem hat, besinnt man sich auf die Dinge, die man gut kann. Wir konnten designen. An der Kunstakademie hatten wir gelernt, dass Design viel mehr ist als nur Aussehen und Haptik -- es ist das Gesamterlebnis. Wir hatten gelernt, wie man Objekte designt, aber jetzt wollten wir durch Design immenses Vertrauen schaffen, zwischen Menschen, die sich nie zuvor getroffen hatten. Kann Design so etwas leisten? Ist es möglich, mit Design Vertrauen zu schaffen? Ich möchte Ihnen eine Kostprobe geben, welchen Grad Vertrauen wir anstrebten. Es ist ein 30-Sekunden-Experiment. Es wird Sie aus Ihrer Komfortzone heraus zwingen. Daumen hoch, wenn Sie bereit sind. Nehmen Sie Ihr Handy in die Hand. Jetzt möchte ich gerne, dass Sie Ihr Handy entsperren. Geben Sie Ihr entsperrtes Handy Ihrem linken Sitznachbarn. Dieser leise Anflug von Panik, den Sie jetzt spüren -- -- ist genau das, was Gastgeber spüren, wenn sie das erste Mal die Tür öffnen. Denn das einzige, was noch persönlicher als Ihr Handy ist, ist Ihr Zuhause. Besucher können nicht nur Ihre SMS lesen, sie sehen Ihr Schlafzimmer, Ihre Küche, Ihre Toilette. Wie fühlt es sich an, das entsperrte Handy eines Fremden in den Händen zu halten? Die meisten spüren die Verantwortung. So fühlen sich auch die meisten Gäste, wenn sie woanders übernachten. Nur aus diesem Grund kann unser Unternehmen existieren. Nur mal so, wer hat jetzt eigentlich Al Gores Handy? Könnten Sie bitte auf Twitter verkünden, dass er für das Amt des Präsidenten kandidiert? Sie können die Handys jetzt zurückgeben. Sie haben jetzt erlebt, welche Art Vertrauen wir aufbauen wollen. Ich möchte Ihnen von einigen Entdeckungen erzählen. Was wäre, wenn wir ein kleines Detail an diesem Experiment geändert hätten? Was, wenn sich Ihr Nachbar erst einmal mit seinem Namen vorgestellt hätte; wenn er erzählt hätte, woher er kommt, wie sein Hund oder seine Kinder heißen? Stellen Sie sich vor, Sie hätten 150 Beurteilungen, die alle sagen: "Er kann wirklich sehr gut entsperrte Handys festhalten!" Wie würden Sie sich dann fühlen, wenn Sie Ihr Handy abgeben müssten? Denn ein gut durchdachtes Feedback-System stärkt das Vertrauen entscheidend. Am Anfang haben wir noch einige Dinge falsch gemacht. Es war schwer für die Leute, negative Beurteilungen abzugeben. Letztlich entschieden wir uns zu warten, bis sowohl Gastgeber als auch Gast ihre Beurteilungen abgegeben hatten, bevor wir sie online stellten. Letzte Woche haben wir etwas Neues entdeckt. Wir haben mit Stanford eine Studie durchgeführt. Wir untersuchten, wie wahrscheinlich es ist, dass Menschen einander vertrauen, abhängig davon, wie ähnlich sie sich hinsichtlich Alter und Wohnort sind. Wenig überraschend vertrauen wir den Menschen am meisten, die uns am ähnlichsten sind. Je mehr Unterschiede wir finden, desto weniger vertrauen wir. Das ist eine natürliche soziale Voreingenommenheit. Spannend wird es, wenn man den Ruf einer Person hinzufügt -- in unserem Fall durch Beurteilungen. Wenn man weniger als drei Beurteilungen hat, ändert sich nichts. Hat man aber mehr als zehn, ändert sich alles. Ein guter Ruf sticht Gemeinsamkeiten aus. Das richtige Design kann uns also dabei helfen, einige unserer tief verwurzelten Vorlieben zu überwinden. Außerdem erfuhren wir, dass Vertrauen davon abhängig ist, wie viel man von sich preisgibt. Hier sehen Sie die Reaktionen auf die erste Nachricht eines Gastes. Wenn man zu wenig erzählt, wie zum Beispiel "Hi!", bekommt man eher keine Antwort. Erzählt man zuviel, wie zum Beispiel: "Ich habe Probleme mit meiner Mutter" -- -- wird die Anfrage auch eher nicht angenommen. Es gibt also einen optimalen Grad an Offenheit, z. B. "Tolle Kunstwerke in deiner Wohnung! Ich mache mit meiner Familie Urlaub." Wie kann man es mit Design schaffen, diesen Grad an Offenheit herzustellen? Wir benutzen die Größe des Textfeldes, um die richtige Menge Text zu empfehlen. Wir geben außerdem Tipps, zu welchen Themen man etwas schreiben sollte. Unser ganzes Unternehmen baut auf der Hoffnung auf, dass das richtige Design helfen kann, unsere Vorurteile gegenüber Fremden zu überwinden. Womit wir nicht gerechnet hatten, war die große Menge an Menschen, die mehr als bereit waren, diese Vorurteile abzulegen. Hier sehen Sie, wie viele Menschen unser Angebot in Anspruch nehmen. Man kann drei Dinge erkennen. Erstens: unglaublich viel Glück. Zweitens: die unermüdliche Arbeit unseres Teams. Drittens: einen Bedarf, der vorher nicht gedeckt worden war. Für uns läuft das Geschäft gerade sehr gut. Natürlich gibt es auch Zeiten, wenn nicht alles glatt läuft. Es gab Gäste, die unerlaubt Partys gefeiert oder Wohnungen verwüstet haben. Gastgeber haben Gäste im Regen stehen lassen. Am Anfang des Projekts habe ich im Kundenservice mitgearbeitet. Alle Anrufe kamen direkt auf mein Handy. Ich stand an vorderster Front, wenn Vertrauen gebrochen wurde. Es gibt nichts Schlimmeres als diese Anrufe. Es tut schon weh, wenn ich nur daran denke. Die Enttäuschung, die man in der Stimme der Anrufer hört, war und wird auch immer unsere größte Motivation sein, uns weiter zu verbessern. Glücklicherweise hatte von den 123 Millionen vermittelten Übernachtungen nur ein Bruchteil je ein Problem. Denn Menschen vertrauten einander zu Recht. Wenn Vertrauen funktioniert, kann dabei Wunderbares entstehen. Einer unserer Gäste machte Urlaub in Uruguay. Dort erlitt er einen Herzinfarkt. Sein Gastgeber fuhr ihn ins Krankenhaus. Er spendete sogar Blut für die nötige Operation! Hier ist seine Beurteilung: "Perfektes Haus für Reisende, die aufgrund sitzender Tätigkeiten zu Herzinfarkten neigen. Die Gegend ist wunderschön und mit ausreichend Krankenhäusern ausgestattet. Javier und Alejandra sind echte Schutzengel, die einem das Leben retten, obwohl sie einen gar nicht richtig kennen. Sie fahren einen im eigenen Auto ins Krankenhaus, wenn man stirbt, und warten, während man einen Bypass bekommt. Weil sie nicht wollen, dass man sich einsam fühlt, bringen sie Bücher vorbei. Sie lassen einen sogar länger bleiben, ohne die Extra-Nächte zu berechnen. Ich kann es nur empfehlen!" So läuft natürlich nicht jeder Aufenthalt ab. Aber diese Beziehungen hinter der reinen Geldtransaktion sind genau das, was man mit der Share Economy erreichen will. Als ich zum ersten Mal über diesen Begriff stolperte, fragte ich mich: Wie passt der Gedanke des Teilens mit Geldtransaktionen zusammen? Es geht hier um einen wirtschaftlichen Handel. Aber es jetzt einfach nur "Mietindustrie" zu nennen, wird der Sache nicht gerecht. Share Economy beschreibt einen Handel, der menschliche Beziehungen verspricht. Menschen legen einen Teil von sich offen, und das ändert alles. Wenn man heutzutage verreist, ist das mit Fast Food zu vergleichen. Es ist effizient und verlässlich, aber dafür weniger authentisch. Was wäre jedoch, wenn Reisen ein reichhaltiges Buffet aus lokalen Eindrücken wäre? Was wäre, wenn an jedem Ort, den man besucht, eine Gruppe dort Ansässiger darauf warten würde, einen gründlich abzufüllen und einem bei einer Kneipentour Viertel zu zeigen, von denen man noch nie gehört hat; oder wenn man Kochen von einem Fünf-Sterne-Koch lernen könnte? Heutzutage werden Wohnungen nach dem Prinzip von Privatsphäre gestaltet. Was wäre, wenn wir Wohnungen von Grund auf zum Miteinanderteilen gestalten würden? Wie würde das aussehen? Was wäre, wenn Städte den Gedanken vom gemeinsamen Teilhaben annehmen würden? Ich stelle mir Städte vor, die uns Gesellschaft und Beziehungen ermöglichen, statt Einsamkeit und Abschottung. In Südkoreas Hauptstadt Seoul wurde dieses Projekt bereits begonnen. Viele Parkplätze, die der Regierung gehörten, wurden nun Anwohnern angeboten. Studenten, die auf der Suche nach einer Bleibe waren, wurden an Menschen vermittelt, deren Kinder ausgezogen waren. Es wurden Inkubatorprogramme gestartet, um neue Start-ups in der Share Economy finanzieren zu können. Über unsere Plattform allein werden heute Nacht 785 000 Menschen in 191 Ländern zu Gast bei einem Fremden oder selbst Gastgeber sein. Die Idee scheint also nicht so verrückt zu sein, wie es uns beigebracht wurde. Wir haben das Rad nicht neu erfunden. Gastfreundlichkeit gab es auch vorher schon. Es gab vor uns schon ähnliche Websites. Warum also hat gerade unsere funktioniert? Abgesehen von Glück und Timing merkten wir, dass man mit den Bestandteilen des Vertrauens das richtige Design finden kann. Design kann uns helfen, tiefverwurzelte Vorurteile zu überwinden. Ich finde das verblüffend, geradezu überwältigend. Ich muss jedesmal darüber nachdenken, wenn ein roter Mazda an mir vorbei fährt. Wir wissen natürlich, dass Design nicht jedes Problem lösen kann. Aber wenn es uns helfen konnte, wenn es diesen großen Einfluss hatte, frage ich mich, wofür wir Design demnächst nutzen können. Danke. http://www.ted.com/talks/dalia_mogahed_what_do_you_think_when_you_look_at_me TED Talk Subtitles and Transcript: Wenn Sie die Studentin Dalia Mohaged sehen, was sehen Sie da: Eine Gläubige? Eine Studentin, eine Mutter, eine Schwester? Oder eine unterdrückte, Gehirnwäsche unterzogene, potenzielle Terroristin? In diesem persönlichen, beeindruckenden Vortrag bittet uns Mohaged, in dieser polarisierten Zeit, negative Gefühle gegenüber ihrem Glauben in den Medien zu bekämpfen und Empathie dem Vorurteil vorzuziehen. talks, Islam, United States, culture, faith, politics 2442 Dalia Mohaged: Was denken Sie, wenn Sie mich ansehen? Patricia Guzmán Johannes Duschner Was denken Sie, wenn Sie mich ansehen? Eine Gläubige? Eine Expertin? Vielleicht sogar eine Schwester. Oder unterdrückt, einer Gehirnwäsche unterzogen, eine Terroristin? Oder ganz einfach eine Verzögerung beim Sicherheitscheck am Flughafen. Das ist tatsächlich wahr. Ich gebe Ihnen nicht die Schuld für Ihre negativen Eindrücke. So stellen die Medien Leute dar, die so aussehen wie ich. Eine Studie ergab, dass 80 % der Berichterstattung über den Islam und Muslime negativ ist. Studien zeigen: Die Amerikaner meinen, die meisten würden keine Muslime kennen. Vermutlich sprechen die Leute nicht mit ihren Uber-Fahrern. Für alle die, die noch nie einen Muslimen kennengelernt haben: Es ist großartig, Sie kennenzulernen. Ich sage Ihnen, wer ich bin. Ich bin eine Mutter, eine Kaffeeliebhaberin -- doppelter Espresso, mit Sahne extra. Ich bin introvertiert, eine Möchtegern-Fitness-Fanatikerin, und ich bin eine praktizierende, spirituelle Muslimin. Aber nicht wie Lady Gaga singt, denn, Baby, ich wurde nicht so geboren. Ich habe mich dazu entschieden. Als ich 17 Jahre alt war, traf ich die Entscheidung, mich zu outen. Nein, nicht als homosexueller Mensch, wie einige meiner Freunde, sondern als Muslimin. Ich entschied mich, den Hijab, meine Kopfbedeckung zu tragen. Meine feministischen Freundinnen waren entsetzt: "Warum unterdrückst du dich selbst?" Das Lustige war: Damals war es für mich doch eine feministische Unabhängigkeitserklärung, und zwar gegenüber dem Druck, den ich als 17-Jährige fühlte, mich einem perfekten und unerreichbaren Schönheitsideal anzupassen. Ich habe nicht nur passiv den Glauben meiner Eltern angenommen. Ich habe mit dem Koran gerungen. Ich las ihn, dachte nach, stellte in Frage, zweifelte und glaubte letztendlich. Meine Beziehung zu Gott war nicht Liebe auf den ersten Blick. Sie war Vertrauen und langsame Hingabe, die sich mit jedem Lesen des Korans vertiefte. Die Schönheit der Rhythmik bringt mich manchmal zum Weinen. Ich erkenne mich selbst darin. Ich fühle, dass Gott mich kennt. Hatten Sie jemals das Gefühl, dass jemand Sie wahrnimmt, Sie vollständig versteht, und doch irgendwie liebt? So fühlt es sich an. Später heiratete ich und begann, wie alle guten Ägypter, meine Karriere als Ingenieurin. Ich hatte später, nach meiner Heirat, ein Kind, und lebte im Grunde den "Ägyptisch-Amerikanischen Traum". Dann kam jener schreckliche Morgen im September 2001. Viele von Ihnen erinnern sich vermutlich genau, wo sie da waren. Ich saß in meiner Küche, hatte zu Ende gefrühstückt, schaute auf den Bildschirm und sah das Wort "Eilmeldung". Da war Rauch, Flugzeuge flogen in Gebäude, Menschen sprangen aus den Gebäuden. Was war das? Ein Unfall? Eine technische Störung? Mein Schock verwandelte sich schnell in Empörung. Warum sollte man so etwas tun? Ich wechselte den Fernsehkanal und hörte: " ... muslimische Terroristen ...," " ... im Namen des Islam ...," " ... nahöstlicher Abstammung ...," " ... Dschihad ...," " ... zerbombt Mekka!" Oh, mein Gott. Es ist nicht nur mein Land angegriffen worden, sondern im Nu verwandelten mich die Taten von anderen von einer Bürgerin in eine Verdächtige. Am selben Tag mussten wir durch den Mittleren Westen der USA fahren, um in eine neue Stadt zu ziehen und mit dem Aufbaustudium zu beginnen. Ich erinnere mich, wie ich mich -- als wir schweigend fuhren -- so tief es ging in meinen Sitzplatz kauerte, und ich mich das erste Mal fürchtete, als Muslimin erkannt zu werden. Wir zogen in dieser Nacht in unsere Wohnung, in einer neuen Stadt, in der es sich wie eine vollständig andere Welt anfühlte. Und dann hörte, sah und las ich die Warnungen der nationalen islamischen Organisationen, die besagten: "Seid wachsam", "Seid vorsichtig", "Bleibt in gut beleuchteten Gegenden", "Versammmelt euch nicht". Ich blieb die ganze Woche drinnen. Dann wurde es Freitag in jener Woche -- der Tag, an dem sich Muslime zum Beten versammeln. Und wieder lauteten die Warnungen: "Geht nicht an diesem ersten Freitag, die Moschee könnte ein Ziel sein." Ich sah mir die umfangreiche Berichterstattung an. Die Gefühle waren verständlicherweise ungefiltert und ich hörte auch von Angriffen auf Muslime oder von Leuten, die man für Muslime hielt, ins Freie zerrte und schlug. Es gab wirklich Brandanschläge auf Moscheen. Ich dachte: Wir sollten zu Hause bleiben. Doch etwas fühlte sich nicht richtig an. Weil die Leute, die dieses Land angegriffen hatten, unser Land angegriffen haben. Ich habe die Wut der Leute auf die Terroristen abgekriegt. Stellen Sie sich vor! Ich war auch wütend. Es ist nicht einfach, sich andauernd selbst erklären zu müssen. Ich habe nichts gegen Fragen, ich liebe Fragen. Es sind die Anschuldigungen, die hart sind. Heutzutage können wir tatsächlich Leute sagen hören: "Es gibt ein Problem in diesem Land -- es heißt Muslime. Wann werden wir sie los?" Manche Leute wollen Muslime verbannen und Moscheen schließen. Sie sprechen von meiner Gemeinde wie von einem Tumor im Körper der USA. Es stellt sich nur die Frage: Sind wir bösartig oder gutartig? Sie wissen: einen bösartigen Tumor entfernt man als Ganzes und einen gutartigen Tumor hält man nur unter Beobachtung. Die Alternativen sind sinnlos, weil die Frage falsch gestellt ist. Muslime sind, wie alle anderen Amerikaner, kein Tumor im Körper der USA, sondern ein lebenswichtiges Organ. Danke! Muslime sind Erfinder und Lehrer, Ersthelfer und Olympioniken. Wird die Schließung von Moscheen Amerika sicherer machen? Es wird vielleicht ein paar Parkplätze freihalten, aber nicht den Terror stoppen. Der regelmäßige Besuch einer Moschee führt dazu, Menschen anderen Glaubens toleranter zu betrachten, und größere Bürgerbeteiligung zu zeigen. Und wie mir ein Leiter der Polizei in der Gegend von Washington, DC kürzlich erzählte: Menschen werden tatsächlich nicht in Moscheen radikalisiert. Sie werden in ihrem Keller oder im Bett vor einem Computer radikalisiert. Beim Radikalisierungsprozess hat man festgestellt, dass er online beginnt. Als Erstes wird die Person von ihrer Gemeinde abgeschnitten, sogar von ihrer Familie, damit die Extremistengruppe eine Gehirnwäsche machen kann, die dazu führt, dass die Person glaubt, die Terroristen seien die wahren Muslime, und jeder, der ihr Verhalten und ihre Ideologie verabscheut, ist ein Verräter oder vom Glauben abgefallen. Wenn wir Radikalisierung verhindern wollen, müssen wir die Leute dazu anhalten, zur Moschee zu gehen. Manche werden immer noch behaupten, der Islam sei eine gewalttätige Religion. Schließlich begründet eine Gruppe wie der IS ihre Brutalität mit dem Koran. Als Muslimin, als Mutter, als Mensch, glaube ich, dass wir alles tun müssen, um eine Gruppe wie der IS zu stoppen. Aber wir würden uns in ihre Vorstellungswelt fügen, wenn man sie als Repräsentanten von 1,6 Milliarden Gläubigen anerkennt. Danke! Der IS hat so viel mit dem Islam zu tun, wie der Ku-Klux-Klan mit dem Christentum. Beide Gruppen behaupten ihre Ideologie gründe auf ihrem "Heiligen Buch". Aber wenn man einen Blick auf sie wirft, treibt sie nicht an, was sie in ihrer "Heiligen Schrift" lasen. Es ist ihre Brutalität, die sie diese Dinge in die Schrift hineinlesen lässt. Ein herausragender Imam erzählte mir kürzlich eine erstaunliche Geschichte: Ein Mädchen kam zu ihm, weil sie vorhätte, sich dem IS anzuschließen. Ich war wirklich überrascht und fragte ihn, ob sie in Kontakt mit radikalen religiösen Führern gewesen sei. Er sagte, das Problem war genau das Gegenteil. Jeder Geistliche, mit dem sie gesprochen hatte, brachte sie zum Schweigen und sagte ihr, dass ihr Zorn, ihr Sinn für die Ungerechtigkeit in der Welt, sie nur in Schwierigkeiten bringen würde. Von nichts inspiriert und etwas, das ihrer Wut Sinn gegeben hätte, war sie ein Hauptziel für die Instrumentalisierung durch Extremisten, die ihr eine Lösung versprachen. Dieser Imam stellte die Verbindung zu Gott und ihrer Gemeinde wieder her. Anstatt sie für ihre Wut zu beschuldigen, zeigte er ihr konstruktive Wege für einen wirklichen Wandel in der Welt. Was sie in der Moschee lernte, bewahrte sie davor, sich dem IS anzuschließen. Das war ein Einblick, wie die Islamophobie mich und meine Familie betrifft. Aber wie wirkt es sich auf normale Amerikaner aus? Wie wirkt es sich auf jeden anderen aus? Wie wirkt sich der 24-stündige Konsum von Angst jeden Tag auf unsere Demokratie aus, auf unsere Gedankenfreiheit? Eine Studie -- eigentlich mehrere neurowissenschaftliche Studien -- zeigen: Wenn wir uns fürchten, passieren mindestens drei Dinge. Wir akzeptieren eher ein autoritäres Regierungssystem, Konformität und Vorurteile. Eine Studie zeigt: Wenn man Testpersonen Nachrichten vorlegt, in denen negativ über Muslime berichtet wurde, stimmmen sie eher militärischen Angriffen auf muslimische Länder sowie der Beschneidung der Rechte amerikanischer Muslime zu. Das ist nicht nur ein akademisches Problem. Wenn Sie schauen, wann die Stimmung gegen Muslime nach oben schoss -- zwischen 2001 und 2013 -- dann geschah dies drei Mal, aber nie im Zusammenhang mit Terroranschlägen. Es geschah im Vorfeld des Irakkrieges und während zweier Wahlperioden. Also ist Islamophobie nicht einfach die natürliche Reaktion auf Moslem-Terror, wie ich es erwartet habe. Es kann tatsächlich ein Werkzeug zur Manipulation der Öffentlichkeit sein, um das Fundament einer freien Gesellschaft auszuhöhlen, die vernünftige und gut informierte Bürger hat. Der Umgang mit Muslimen ist ein frühes Warnzeichen. Wir spüren es vielleicht als erste, aber die toxische Luft der Angst schadet uns allen. Bei der Zuweisung von Kollektivschuld geht es nicht nur darum, sich selbst erklären zu müssen. Deah und seine Frau Yusor waren ein junges, verheiratetes Paar, das in Chapel Hill, North Carolina lebte, wo beide zur Schule gingen. Deah war ein Sportler. Er war an der zahnmedizinischen Fakultät, talentiert, viel versprechend ... Seine Schwester würde mir sagen, dass er der süßeste, großzügigste Mensch war, den sie kannte. Sie besuchte ihn dort und er zeigte ihr seinen Lebenslauf. Sie war verblüfft und sagte: "Wann ist aus meinem Brüderlein solch ein versierter junger Mann geworden?" Nur ein paar Wochen nach dem Besuch von Suzanne bei ihrem Bruder und seiner Frau, hat ihr Nachbar, Craig Stephen Hicks, sie ermordet, genauso wie die Schwester von Yusor, Razan, die am Nachmittag zu Besuch war. Er tat es in ihrer Wohnung, wie bei einer Hinrichtung, nachdem er Äußerungen gegen Muslime auf seiner Facebook-Seite gepostet hatte. Er schoss acht Mal auf Deah. Fanatismus kann nicht nur unmoralisch, sondern auch tödlich sein. Also zurück zum Anfang. Was geschah nach dem 9/11? Sind wir zur Moschee gegangen oder blieben wir sicher zu Hause? Wir besprachen es und für uns war es keine leichte Entscheidung, denn es ging darum, welches Amerika wir unseren Kindern überlassen wollen: eines, dass uns durch Angst kontrollieren würde, oder eines, in dem wir unsere Religion frei ausüben können. Wir entschieden uns für die Moschee. Mit unserem Sohn im Kindersitz fuhren wir schweigend, mit Hochdruck zur Moschee. Ich nahm ihn heraus, zog meine Schuhe aus, ging in die Gebetshalle, und was ich sah, ließ mich anhalten. Die Halle war restlos gefüllt. Dann machte der Imam eine Ankündigung, bedankte sich und hieß unsere Gäste willkommen, denn die Hälfte der Versammelten waren Christen, Juden, Buddhisten, Atheisten, Gläubige und Nicht-Gläubige, die gekommen waren, nicht um uns anzugreifen, sondern um uns beizustehen. In diesem Moment bin ich zusammengebrochen. Diese Menschen waren dort, weil sie Mut und Mitgefühl Panik und Vorurteilen vorgezogen hatten. Was werden Sie wählen? Was werden Sie im Moment der Angst und des Fanatismus wählen? Werden Sie auf Nummer sicher gehen? Oder werden Sie sich denen anschließen, die meinen: Wir sind besser als die. Vielen Dank. Danke schön! Helen Walters: Also Dalia, Sie scheinen einen Nerv getroffen zu haben. Aber ich frage mich, was sagen Sie denjenigen, die vielleicht behaupten, dass Sie einen TEDTalk halten, eine Denkerin mit Tiefgang sind, in einer noblen Denkfabrik arbeiten, also eine Ausnahme und nicht die Regel sind. Was würden Sie zu jenen Leuten sagen? Dalia Mogahed: Ich würde sagen, täuschen Sie sich nicht. Ich bin vollkommen normal. Ich bin keine Ausnahme. Meine Geschichte ist nicht ungewöhnlich. Ich bin so gewöhnlich, wie es erlaubt ist. Wenn man auf die Muslime auf der ganzen Welt blickt, und ich tat das mit der größten je durchgeführten Studie zu Muslimen auf der ganzen Welt, wollen Menschen normale Dinge. Sie wollen Wohlstand für die Familie, sie wollen Arbeit und sie wollen in Frieden leben. Also bin ich in keinerlei Hinsicht eine Ausnahme. Wenn Menschen wie eine Ausnahme zur Regel erscheinen, dann ist oft die Regel gebrochen worden, und sie sind nicht die Ausnahme zu der Regel. HW: Vielen Dank. Dalia Mogahed. http://www.ted.com/talks/raffaello_d_andrea_meet_the_dazzling_flying_machines_of_the_future TED Talk Subtitles and Transcript: Wenn Sie das Wort “Drohne” hören, denken Sie wahrscheinlich entweder an etwas sehr nützliches oder etwas sehr unheimliches. Aber könnten sie einen ästhetischen Wert haben? Der Experte für autonome Systeme, Raffaello D'Andrea, entwickelt Flugmaschinen, und seine neuesten Projekte überschreiten die Möglichkeiten des autonomen Flugs – von einem fliegenden Flügel, der schweben und sich von Turbulenzen erfangen kann bis zu einem Gerät mit acht Propellern, das unabhängig von Ausrichtung fliegen kann, bis zu einem Schwarm von extrem kleinen koordinierten Micro-Quadcoptern. Lasssen sie sich von traumhaften herumwirbelnden Masse von Flugmaschinen verzaubern, die wie Glühwürmchen über der TED-Bühne tanzen. talks, beauty, creativity, demo, design, drones, flight, future, invention, technology 2440 Raffaello D'Andrea: Entdecken Sie die glanzvollen Fluggeräte der Zukunft Angelika Lueckert Leon Elisabeth Skoda Was als Plattform für Bastler begann, steht kurz davor, ein Milliardengeschäft zu werden. Kontrolle, Umweltüberwachung, Fotografie, Film und Journalismus: Das sind einige der möglichen Anwendungen für gewerbliche Drohnen. Möglich gemacht wird das in Forschungseinrichtungen weltweit. Bevor Luft-Paketzustellung in unser gesellschaftliches Bewusstsein eindrang, hat eine autonome Flotte von Flugmaschinen im FRAC Centre in Frankreich live vor Publikum einen sechs Meter hohen Turm aus 1 500 Ziegeln gebaut. Vor einigen Jahren begannen sie, mit Seilen zu fliegen. Durch Aneinanderbinden erreichen Fluggeräte hohe Geschwindigkeit und Beschleunigung auf engstem Raum. Sie können auch selbstständig zugbelastbare Strukturen bauen. Sie haben gelernt, Lasten zu tragen, mit Turbulenzen umzugehen und generell auf Naturgesetze zu reagieren. Heute möchten wir Ihnen ein paar unserer neuen Projekte zeigen. Unser Ziel ist es, die Grenzen des Möglichen im autonomen Flug zu überschreiten. Damit ein System autonom funktioniert, muss es kollektiv Bescheid wissen, wo im Raum sich die mobilen Objekte befinden. In unserem Labor an der ETH Zürich verwenden wir oft externe Kameras, um Objekte zu finden. Das ermöglicht uns dann, uns auf die rasche Entwicklung dynamischer Tasks zu konzentrieren. Für die heutigen Demos verwenden wir eine neue Lokalisierungstechnologie von Verity Studios, einem Ableger unseres Labors. Es gibt keine externen Kameras. Jede Flugmaschine hat interne Sensoren, um die Position im Raum zu bestimmen, Berechnungen an Bord bestimmen, was die Maschine tun sollte. Externe Befehle gibt es auf höchster Ebene. z. B. “starten” und “landen”. Dies ist ein sogenannter Heckstarter, ein Fluggerät, das versucht, zwei Fliegen mit einer Klappe zu schlagen. Wie andere Starrflügler ist es im Vorwärtsflug effizient, viel effizienter als Hubschrauber in all ihren Variationen. Im Gegensatz zu den meisten Starrflüglern kann es schweben, und hat damit groβe Vorteile bei Start und Landung, und ist sehr vielseitig. Allerdings gibt es immer eine Kehrseite. Eine Einschränkung von Heckstartern ist, dass sie empfindlich auf Turbulenzen wie Windböen reagieren. Wir entwickeln neue Steuerungen und Algorithmen, um dies zu verbessern. Die Idee dahinter ist, dass das Fluggerät egal in welcher Lage die optimale Position wiedererlangt und die Leistung durch Üben verbessert werden kann. Okay. Während unserer Forschung stellen wir uns oft grundlegende abstrakte Fragen, die zum Kern der Sache vordringen. Eine solche Frage wäre zum Beispiel: Was ist die kleinstmögliche Zahl beweglicher Teile für kontrollierte Flüge? Es gibt praktische Gründe dafür, die Antwort auf eine solche Frage wissen zu wollen. Hubschrauber sind etwa als Maschinen mit tausend beweglichen Teilen bekannt, die sich zusammentun, um Sie zu verletzen. Vor Jahrzehnten konnten ausgebildete Piloten ferngesteuerte Fluggeräte fliegen, die nur zwei bewegliche Teile hatten: Einen Propeller und ein Heckruder. Unlängst entdeckten wir, dass Fliegen mit nur einem funktioniert. Das ist der Monospinner, das mechanisch einfachste fernbediente Fluggerät. Es wurde vor Kurzem erfunden. Es hat nur einen beweglichen Teil, einen Propeller, keine Klappen, Scharniere und Querruder, keine weiteren Stellantriebe oder Kontrolloberflächen, nur einen Propeller. Obwohl es mechanisch simpel ist, passiert im Innenleben sehr viel, damit es stabil fliegen kann, und sich im Raum überallhin bewegen kann. Dennoch verfügt es nicht über den eleganten Algorithmus des Heckstarters. Um es zum Fliegen zu bringen, muss ich es genau richtig werfen. Die Wahrscheinlichkeit, es genau richtig zu werfen, wenn mir alle zusehen, ist gering, deshalb zeige ich Ihnen ein Video, das gestern Abend gefilmt wurde. Wenn der Monospinner eine Übung in Genügsamkeit ist, ist diese Maschine hier, der Omnikopter mit seinen acht Propellern, eine Übung in Überfluss. Was tun mit all diesem Überfluss? Sie sehen, dass er äuβerst symmetrisch ist. Deshalb ist er ambivalent in seiner Ausrichtung. Dadurch erhält er die die auβerordentliche Fähigkeit, sich im Raum in alle Richtungen zu bewegen, egal in welche Richtung er gedreht ist oder sogar wie er rotiert. Natürlich ist er komplex, hauptsächlich im Bereich der interaktiven Flüsse von den acht Propellern. Einiges ist in Modellen darstellbar, der Rest wird direkt beim Fliegen erlernt. Sehen wir uns das an. Wenn Flugmaschinen einmal Teil unseres Alltags sein sollen, müssen sie extrem sicher und verlässlich werden. Diese Maschine hier besteht aus zwei separaten Zweipropeller-Flugmaschinen. Diese dreht sich im Uhrzeigersinn und die andere gegen den Uhrzeigersinn. Wenn man sie zusammenbaut, verhalten sie sich wie ein Hochleistungs-Quadrocopter. Geht allerdings etwas schief -- ein Motor oder Propeller fällt aus, die Elektronik oder ein Akku -- kann die Maschine weiter fliegen, wenn auch eingeschränkt. Wir werden das nun demonstrieren, indem wir eine Hälfte flugunfähig machen. Die letzte Demonstration untersucht synthetische Schwärme. Die groβe Zahl an autonomen, koordinierten Einheiten ermöglicht eine Palette an ästhetischem Ausdruck. Wir nahmen handelsübliche Micro-Quadcopter -- jeder einzelne wiegt weniger als eine Scheibe Brot -- und statten sie mit Lokalisierungstechnologie und Algorithmen aus. Jede Einheit weiss, wo im Raum sie ist und ist selbstgesteuert. Darum gibt es keine Obergrenze. Hoffentlich motivieren Sie diese Demonstrationen dazu, sich neue revolutionäre Ideen auszudenken. Die besonders sichere Maschine da drüben möchte am Broadway ein fliegender Lampenschirm werden. Natürlich ist es schwierig, den Einfluss dieser Technologie vorherzusagen. Für Typen wie uns liegt der Lohn in der Entwicklung und dem Schaffensakt. Es dient als Erinnerung, wie wunderbar und zauberhaft unser Universum ist, und dass es kreativen, klugen Geschöpfen erlaubt, sie auf so spektakuläre Weise zu formen. Die Tatsache, dass diese Technologie solch massives gewerbliches und wirtschaftliches Potential hat, ist das Tüpfelchen auf dem i. Vielen Dank. http://www.ted.com/talks/allan_adams_what_the_discovery_of_gravitational_waves_means TED Talk Subtitles and Transcript: Vor mehr als einer Milliarde Jahren umkreisten einander in einer weit entfernten Galaxie zwei schwarze Löcher, stürzten unaufhaltsam ineinander und verschmolzen. "Die gesamte dabei freigesetzte Energie wurde in das Gefüge von Raum und Zeit selbst geladen," sagt der theoretische Physiker Allan Adams, "und Gravitationswellen schossen durch das Universum." Vor ungefähr 25 Jahren baute eine Gruppe von Wissenschaftlern einen gigantischen Laser-Detektor namens LIGO, um nach diesen Wellen zu suchen, die zwar berechnet, aber niemals nachgewiesen worden waren. In diesem atemberaubenden Vortrag analysiert Adams die Ereignisse vom September 2015, als LIGO eine unvorstellbar winzige Abweichung feststellte, die zu einer der spannendsten Entdeckungen in der Geschichte der Physik führte. talks, astronomy, cosmos, curiosity, exploration, nature, physics, science, space, technology, universe 2439 Allan Adams: Was die Entdeckung der Gravitationswellen bedeutet Johanna Pichler Englisch2 Intrawi Vor 1,3 Milliarden Jahren umkreisten in einer sehr weit entfernten Galaxie zwei schwarze Löcher einander immer schneller, Sie wandelten so die Masse dreier Sonnen in einer Zehntelsekunde in pure Energie um. Diesen kurzen Moment lang leuchteten sie heller als alle Sterne zusammen in allen Galaxien des gesamten uns bekannten Universums. Es war ein sehr großer Knall. Ihre Energie setzten sie aber nicht in Form von Licht frei -- wir sprechen schließlich von schwarzen Löchern. Die gesamte Energie wurde ins Raum-Zeit-Gefüge selbst abgegeben und das Universum explodierte in Gravitationswellen. Ordnen wir die Ereignisse zunächst zeitlich ein. Vor 1,3 Milliarden Jahren war gerade mehrzelliges Leben auf der Erde entstanden. Seitdem hat die Erde einiges hervorgebracht: Korallen, Fische, Pflanzen, Saurier, Menschen und -- Gott stehe uns bei -- sogar das Internet. Vor etwa 25 Jahren beschloss eine Gruppe besonders Mutiger -- Rai Weiss vom MIT, Kip Thorne und Ronald Drever vom Caltech -- einen riesigen Laserdetektor zu bauen, um nach Gravitationswellen zu suchen, die etwa durch kollidierende schwarze Löcher entstehen. Die meisten hielten sie für verrückt. Aber genug Menschen erkannten sie als verrückte Genies, sodass die US National Science Foundation ihre Idee finanzierte. Nach jahrzehntelanger Entwicklung, Konstruktion, Konzeption und extrem viel harter Arbeit bauten sie den Detektor LIGO: das Laser-Interferometer- Gravitationswellen-Observatorium. In der Folgezeit konnte die Präzision von LIGO erheblich gesteigert werden, was die Erkennungsleistung enorm verbesserte. Daher nennt man ihn jetzt Advanced LIGO. Anfang September 2015 wurde LIGO für einen letzten Testlauf gestartet um einige kleinere, hartnäckige Probleme zu klären. Am 14. September 2015, nur einige Tage nach der Inbetriebnahme des Detektors, rauschten die Gravitationswellen der beiden kollidierenden schwarzen Löcher durch die Erde hindurch. Sie gingen durch Sie und mich und auch durch den Detektor hindurch. Scott Hughes: Nur zwei Momente in meinem Leben waren emotionaler als dieser: die Geburt meiner Tochter und der Abschied von meinem todkranken Vater. Im Grunde waren das die Früchte meines Lebenswerks. All das, wofür ich gearbeitet hatte, ist nicht länger Science-Fiction! AA: Das ist mein sehr guter Freund und Kollege Scott Hughes, theoretischer Physiker am MIT. Er untersucht seit 23 Jahren Gravitationswellen aus schwarzen Löchern und ihre durch Observatorien wie LIGO messbaren Signale. Was aber sind Gravitationswellen? Eine Gravitationswelle ist eine Kräuselung im Gefüge von Raum und Zeit. Beim Vorüberziehen der Welle werden der Raum und sein gesamter Inhalt in eine Richtung gedehnt und in die andere gestaucht. Zur Veranschaulichung führen Dozenten in Kursen zur Relativitätstheorie oft einen richtig albernen Tanz auf. "Dehnen und stauchen, dehnen und stauchen." Das Problem ist, dass Gravitationswellen extrem schwach, sogar lächerlich, sind. Am 14. September, zum Beispiel, wurde jeder von uns beim Auftreffen der Wellen gedehnt und gestaucht. Die Dehnung eines durchschnittlichen Menschen betrug 10 hoch -21. Das heißt 20 Nullen nach dem Komma, gefolgt von einer 1. Darum erklärte man die LIGO-Mitarbeiter für verrückt. Mit einem fünf Kilometer langen Laser-Detektor, und das ist schon absurd, müsste diese Länge auf weniger als ein Tausendstel des Radius eines Atomkerns genau gemessen werden. Das ist grotesk. Am Ende seines klassischen Textes über Gravitation beschrieb Kip Thorne, ein Mitbegründer LIGOs, die Jagd nach den Wellen folgendermaßen: "Die technischen Schwierigkeiten beim Bau solcher Detektoren sind gewaltig. Aber Physiker sind erfinderisch und mit der Unterstützung der Öffentlichkeit werden gewiss alle Hindernisse überwunden werden." Thorne veröffentlichte dies 1973, 42 Jahre vor seinem Erfolg. Zurück zu LIGO. Scott behauptet gern, LIGO sei mehr ein Ohr als ein Auge. Ich möchte erklären, was das bedeutet. Sichtbares Licht hat eine Wellenlänge, die viel kleiner ist als die Dinge um uns herum: Gesichtszüge, die Größe Ihres Handys. Das ist recht praktisch. Denn so können Sie ein Bild oder eine Karte von Dingen anfertigen, indem Sie das von mehreren Punkten kommende Licht um Sie herum wahrnehmen. Bei Tönen ist das anders. Hörbare Töne haben eine Wellenlänge von bis zu 15 Metern. Darum ist es sehr schwer, eigentlich unmöglich, ein Bild von Dingen zu fertigen, die Ihnen besonders viel bedeuten: dem Gesicht Ihres Kindes etwa. Stattdessen lauschen wir nach bestimmten Eigenschaften wie Tonlage und -höhe, Rhythmus und Lautstärke, um auf die Geschichte dahinter zu schließen. "Jetzt spricht gerade Alice." "Und Bob unterbricht sie." "Dummer Bob." Das Gleiche gilt für Gravitationswellen. Wir können mit ihnen keine einfachen Bilder von Objekten im All anfertigen. Aber indem wir auf Änderungen in der Amplitude und Frequenz der Wellen achten, können wir uns ihre Geschichten anhören. Zumindest liegen für LIGO die gemessenen Frequenzen im hörbaren Bereich. Wenn wir also Wellenmuster in Schall umwandeln, können wir das All buchstäblich sprechen hören. Der Gravitation zu lauschen, kann uns etwa viel über die Kollision zweier schwarzer Löcher verraten, womit sich mein Kollege Scott schon sehr lange beschäftigt. SH: Zwei schwarze, nicht drehende Löcher, zirpen einfach: wupp! Drehen sich die zwei Körper sehr schnell, hört man dasselbe Zirpen mit einem zusätzlichen Tonartwechsel. Das hört sich so an: wu-wu-wu-wu-wu-wu! Es ist eine Art Bewegungswortschatz, eingeprägt in die Wellenform. AA: Am 14. September 2015 -- einem Datum, das zumindest ich nie vergessen werden -- hörte LIGO Folgendes: [Surrendes Geräusch] Jemand, der weiß, worauf er hören muss, erkennt dies als Geräusch von -- SH: ... zwei schwarzen Löchern mit je 30-facher Sonnenmasse, die sich ungefähr so schnell drehen wie die Stäbe Ihres Mixers. AA: Überlegen wir uns kurz, was das bedeutet. Zwei schwarze Löcher, die dichtesten Körper im All, eines mit einer Masse von 29 Sonnen, das andere mit einer Masse von 36 Sonnen, umkreisen sich hundert Mal pro Sekunde, bevor sie kollidieren. Stellen Sie sich diese Kräfte vor. Fantastisch. Und wir wissen davon, weil wir es gehört haben. Darin besteht die bleibende Bedeutung von LIGO. LIGO ebnet einen gänzlich neuen Weg zur Erforschung des Alls, wie sie nie zuvor möglich war. Auf diesem Weg können wir dem All lauschen und das Unsichtbare hören. Vieles im All können wir -- praktisch oder grundsätzlich -- nicht sehen. Eine Supernova, zum Beispiel. Ich würde gern wissen, warum massereiche Sterne in Supernovae explodieren. Sie sind sehr nützlich. Von ihnen haben wir viel über das All gelernt. Die spannenden physikalischen Vorgänge geschehen aber im Kern, der hinter tausenden Kilometern von Eisen, Kohlenstoff und Silizium versteckt liegt. Wir werden nie hindurchsehen, da diese opak sind. Gravitationswellen durchdringen Eisen, als wäre es transparentes Glas. Der Urknall: Ich würde wahnsinnig gerne die ersten Minuten des Alls erforschen, aber wir werden sie nie sehen, da der Urknall durch sein eigenes Nachleuchten verdeckt wird. Mithilfe von Gravitationswellen sollte es möglich sein, bis zum Anfang zurückzublicken. Und das wohl Wichtigste: Ich bin optimistisch, dass im All Dinge existieren, die wir noch nie gesehen haben, die wir wohl nie sehen werden und von denen wir gar keine Vorstellung haben. Dinge, die wir nur entdecken, indem wir zuhören. In der Tat fand LIGO gleich im ersten Anlauf Dinge, die wir nicht erwartet hatten. Mein Kollege am MIT, Matt Evans, ein wichtiges Mitglied des LIGO-Projekts, sagt zu diesem Thema: ME: Die Art von Sternen, die schwarze Löcher hervorbringen, wie LIGO sie beobachtet, sind die Dinosaurier des Universums. Sie sind enorme, uralte Körper aus prähistorischen Zeiten. Die schwarzen Löcher sind sozusagen die Saurierknochen für unsere archäologische Arbeit. LIGO ermöglicht uns einen völlig anderen Blickwinkel auf die Geschehnisse im All, auf die Entstehung der Sterne und letztlich auch darauf, wie wir aus diesem Chaos hervorgingen. AA: Die Herausforderung besteht nun darin, so mutig wie nur möglich zu sein. Dank LIGO wissen wir, wie man großartige Detektoren baut und dem Rauschen und Zirpen des Kosmos lauscht. Wir brauchen Ideen für neue Observatorien -- eine ganz neue Generation von Observatorien auf der Erde und im All. Denn was könnte schöner sein, als dem Urknall selbst zu lauschen? Jetzt ist die Zeit großer Träume. Träumen Sie mit uns. Danke. http://www.ted.com/talks/shonda_rhimes_my_year_of_saying_yes_to_everything TED Talk Subtitles and Transcript: Shonda Rhimes ist das großartige Genie hinter den US-Serien Grey's Anatomy, Scandal und How to Get Away With Murder. Sie ist für über 70 Stunden Serienmaterial pro Staffel zuständig und liebt ihre Arbeit. „Sobald ich hart am Arbeiten und völlig darin vertieft bin, gibt es für mich nichts anderes", sagt Rhimes. Sie beschreibt dieses Gefühl mit einer Art „Summen". Das Summen ist ihre Droge, ihre Musik, die leise Stimme Gottes in ihrem Ohr. Doch was passiert, wenn das Summen verstummt? Ist sie mehr, als nur das Summen? In dieser bewegenden Rede reisen Sie mit Rhimes zurück in ihr „Ja"-Jahr und sie zeigt Ihnen, wie sie ihr Summen wieder erlangte. talks, children, creativity, culture, decision-making, family, identity, motivation, parenting, personal growth, television, work, work-life balance, writing 2438 Shonda Rhimes: Mein „Ja"-Jahr Angelika Lueckert Leon Katrin Hamberger Vor einiger Zeit probierte ich ein Experiment aus. Ein Jahr lang würde ich zu allem „Ja!" sagen, vor dem ich mich fürchtete. Egal, ob es mich nervös machte, mich in unangenehme Situationen brachte, ich zwang mich „Ja" zu sagen. Wollte ich in der Öffentlichkeit sprechen? Nein, aber ja! Wollte ich live im Fernsehen sein? Nein, aber ja! Wollte ich mit dem Schauspielen beginnen? Nein, nein, nein, aber ja, ja, ja. Und eine verrückte Sache passierte: Genau das zu tun, wovor ich mich fürchtete, beseitigte meine Angst. Meine Angst, Reden zu halten, meine soziale Angst -- puff, weg. Die Macht eines Wortes ist beeindruckend. „Ja" hat mein Leben verändert. „Ja" veränderte mich. Aber es gab ein bestimmtes Ja, das mein Leben zutiefst veränderte, auf eine unerwartet Art. Es begann mit einer Frage meiner Kleinsten. Ich habe drei unglaubliche Töchter, Harper, Beckett und Emerson. Und Emerson, die Kleinste, nennt aus unerklärlichen Gründen alle „Schätzchen", als wäre sie eine Kellnerin aus dem Süden. „Schätzchen, ich brauche Milch für meine Schnabeltasse." Sie fragte sie mich einst, ob ich mit ihr spielen könnte, als ich gerade auf dem Sprung war. Und ich sagte: „Ja". Dieses Ja war der Anfang einer neuen Lebenseinstellung in meiner Familie. Von da an schwörte ich mir, immer mit ihnen zu spielen, sobald Sie mich dazu auffordern. Egal, was ich gerade mache, oder wohin ich gehe, ich sage immer Ja -- jedes einzelne Mal. Fast. Ich bin nicht perfekt, aber ich bemühe mich sehr. Es hat einen magischen Effekt auf mich, auf meine Kinder, auf unsere Familie. Aber es hat auch eine verblüffende Nebenwirkung: Erst vor Kurzem verstand ich eigentlich vollständig, dass das „Ja"-Sagen zum Spielen mit meinen Kindern meine Karriere rettete. Ich habe einen echten Traumjob. Ich bin Autorin. Ich denke mir Dinge aus, erwecke Sie zum Leben. Traumjob. Nein. Ich bin ein Titan. Traumjob. Ich kreire Fernsehen. Ich produziere Fernsehen. Ich mache Fernsehen, in großem Stil. In dieser TV-Saison bin ich verantwortlich dafür, 70 Stunden Programm in die Welt hinauszutragen. Vier Fernsehprogramme, 70 Stunden Fernsehen. Drei bis vier Shows sind gleichzeitig in Produktion. Jede Sendung bietet hunderte Jobs, die davor nicht existierten. Das Budget für eine Episode eines Fernsehsenders kann zwischen drei und sechs Millionen Dollar liegen. Sagen wir fünf. Eine neue Episode alle neun Tage mal vier Shows, also alle neun Tage 20 Millionen Dollar Fernsehen, vier Fernsehprogramme, 70 Stunden TV, drei Sendungen, die gleichzeitig in Produktion sind, mal vier, 16 Episoden gleichzeitig: 24 Episoden: Grey's, 21 Episoden: Scandal, 15 Episoden: How To Get Away With Murder, 10 Episoden: The Catch, 70 Stunden Fernsehen, 350 Millionen Dollar für eine Saison. In Amerika laufen meine Fernsehserien nacheinander am Donnerstagabend. Auf der ganzen Welt laufen meine Serien in 256 Regionen in 67 Sprachen für 30 Millionen Zuschauer. Mein Gehirn ist global, und 45 dieser 70 TV-Stunden sind Sendungen, die ich selbst kreiert habe, und nicht nur produziert, also noch obendrein. Ich muss Zeit finden, wirklich stille, kreative Zeit, um meine Fans ums Lagerfeuer zu versammeln und meine Geschichten zu erzählen. Vier Fernsehserien, 70 Stunden Fernsehen, drei, manchmal vier, Shows zur gleichen Zeit in Produktion, 350 Millionen Dollar, Lagerfeuer, die rund um die Welt brennen. Wissen Sie, wer das noch macht? Niemand, deswegen bin ich ein Titan. Traumjob. Ich möchte Sie damit nicht beeindrucken. Ich sage es, weil ich weiß, was Sie denken, wenn das Wort „Autor" fällt. Ich sage es Ihnen, damit alle von Ihnen, die so hart arbeiten, ob Sie nun eine Firma, ein Land oder ein Klassenzimmer leiten, ein Geschäft oder einen Haushalt, mich ernst nehmen, wenn ich von Arbeit spreche, damit Sie verstehen, dass ich nicht nur am Computer herumtippe und fantasiere, und es stimmt, wenn ich sage: Ich verstehe, dass es bei einem Traumjob nicht ums Träumen geht. Es ist alles ein Job, alles Arbeit, alles Realität, alles Blut, alles Schweiß -- keine Tränen. Ich arbeite viel, hart und ich liebe es. Wenn ich in die Arbeit vertieft bin, gibt es kein anderes Gefühl. Meine Arbeit erschafft immer ein Land aus dem Nichts. Es ist, als stellte ich Truppen auf, als malte ich auf eine Leinwand. So als träfe man einen hohen Ton, liefe einen Marathon. Man fühlt sich wie Beyoncé. Und all das zur gleichen Zeit. Ich liebe es zu arbeiten. Sie ist kreativ, mechanisch, anstrengend und berauschend, lustig und verstörend, klinisch und mütterlich, grausam und vernünftig. Und das Beste daran, ist das Summen. Es gibt so eine Veränderung in mir, wenn die Arbeit gut läuft. Ein Summen beginnt in meinem Kopf, und es wächst und wächst, und das Summen hört sich wie eine belebte Straße an, ich könnte für immer auf ihr fahren. Viele Leute nehmen an, wenn ich ihnen das Summen erkläre, dass ich übers Schreiben rede, dass das Schreiben mir Freude bereitet. Verstehen Sie mich nicht falsch, das tut sie. Aber das Summen -- als ich mit der Fernsehproduktion begann, als ich begann zu arbeiten und zu arbeiten und zu machen, aufzubauen, zu kreieren und zusammenzuarbeiten, entdeckte ich diese Sache, dieses Summen, diese Energie. Das Summen! Das Summen ist mehr als das Schreiben. Das Summen ist Aktion und Aktivität. Das Summen ist eine Droge. Das Summen ist Musik. Das Summen ist Licht und Luft. Das Summen ist Gottes Stimme in meinem Ohr. Und wenn Sie so ein Summen haben, dann können Sie nicht anders als nach Größe streben. Das Gefühl, nicht anders zu können, als nach Größe zu streben, egal, um welchen Preis. Das nennt man das Summen. Oder vielleicht bedeutet es auch ein Workaholic zu sein. Vielleicht heißt es Genie. Vielleicht heißt es Ego. Vielleicht ist es die Angst vorm Scheitern. Ich weiß es nicht. Ich weiß nur, dass ich nicht fürs Scheitern gemacht bin, und ich weiß nur, dass ich das Summen liebe. Ich will Ihnen nur sagen, ich bin ein Titan, und ich weiß, dass ich es nicht in Frage stellen will. Um eines klar zu stellen: Je erfolgreicher ich werde, je mehr Sendungen, je mehr Episoden, je mehr überwundene Grenzen, desto mehr Arbeit gibt es, desto mehr Dinge gleichzeitig, desto mehr beobachten mich, umso mehr schreibe ich Geschichte, umso mehr Erwartungen gibt es. Je mehr ich arbeite, um erfolgreich zu sein, desto mehr muss mich arbeiten. Und was sagte ich über Arbeit? Ich liebe Arbeit, nicht wahr? Das Land, das ich erschaffe, den Marathon, den ich laufe, die Armee, die Leinwand, der hohe Ton, das Summen, das Summen, das Summen. Ich mag dieses Summen. Ich liebe das Summen. Ich brauche das Summen. Ich bin das Summen. Bin ich nur dieses Summen? Und dann stoppte das Summen. Überarbeitet, überbeansprucht, übertrieben, ausgebrannt. Das Summen stoppte. Jetzt sind meine drei Töchter an die Wahrheit gewöhnt, dass ihre Mama ein einziger Arbeitstitan ist. Harper erzählt Leuten: „Meine Mama wird nicht da sein, aber Sie können meiner Nanny schreiben." Und Emerson sagt: „Schätzchen, ich möchte nach Shonda-Land gehen." Es sind die Kinder eines Titanen. Sie sind Baby-Titanen. Sie waren 12, 3 und 1, als das Summen aufhörte. Das Summen des Motors verstummte. Ich liebte meine Arbeit nicht mehr. Der Motor war aus. Das Summen kam nicht zurück. Mein Summen war kaputt. Ich machte dieselben Dinge wie immer: Die gleiche Titanen-Arbeit, 15 Stunden-Tage, durchgearbeitete Wochenenden, keine Reue, nichts delegieren, ein Titan schläft nicht, gibt nicht auf, mit ganzem Herzen, klaren Augen, was auch immer. Aber es gab kein Summen. In mir war Stille. Vier Fernsehprogramme, 70 Stunden, drei Produktionen gleichzeitig, manchmal vier. Vier Fernsehprogramme, 70 Stunden, drei Produktionen gleichzeitig ... Ich war der perfekte Titan. Ich war ein Vorzeige-Titan, Alles war grau, ich hatte einfach keinen Spaß mehr. Und das war mein Leben. Alles, was ich tat. Ich war das Summen und das Summen war ich. Was macht man also, wenn das, was man tut, die Arbeit, die man liebt, plötzlich verblasst? Ich weiß, manche mögen denken: „Heul dich aus, blöder Autor-Titan." Aber Sie wissen, Sie tun es, man macht, man arbeitet, man liebt, was man tut, ein Lehrer zu sein, ein Banker, eine Mutter zu sein, ein Maler, Bill Gates zu sein, man liebt einfach einen anderen und das gibt einem das Summen, wenn man das Summen kennt, und weiß, wie sich das Summen anfühlt, wenn man das Summen schon mal kannte, wenn das Summen stoppt, wer ist man dann? Was sind Sie? Was bin ich? Bin ich noch immer ein Titan? Wenn das Lied meines Herzens aufhört, kann ich in der Stille überleben? Und dann stellt mir meine „Südstaaten-Kellnerin" eine Frage. Ich bin auf dem Weg nach draußen, spät dran und sie sagt: „Mama, magst du spielen?" Und ich will schon Nein sagen, als mir zwei Dinge bewusst werden: Erstens, ich muss Ja zu allem zu sagen und zweitens, sie nannte mich nicht „Schätzchen". Sie nennt niemanden mehr „Schätzchen". Wann ist das passiert? Ich verpasse es, wenn ich Titan bin und mein Summen betrauere, und hier ändert sich alles vor meinen eigenen Augen. Und so sagt sie: „Mama, magst du spielen?" Und ich sage: „Ja". Daran ist nichts besonderes. Wir spielen und ihre Schwestern stoßen dazu, wir lachen viel und ich lese ganz dramatisch aus dem Buch „Everybody Poops" vor. Nichts außergewöhnliches. Aber es ist herausragend, weil mein Schmerz und meine Panik, in der Einsamkeit und im Fehlen des Summens, kann ich nichts machen, außer aufzupassen. Ich bin fokussiert. Ich bin leise. Das Land, das ich erschaffe, den Marathon, den ich laufe, die Armee, die Leinwand, der hohe Ton - sie existieren nicht mehr. Alles, was existiert sind klebrige Finger und feuchte Küsse, zarte Stimmen, Wachsmalstifte und das Lied, in dem es ums Loslassen geht, oder was auch immer das Mädchen in „Die Eiskönigin" loslässt. Überall ist Frieden und Einfachheit. Die Luft an diesem Ort ist so knapp, dass ich kaum atmen kann. Ich kann kaum glauben, dass ich atme. Spielen ist das Gegenteil von Arbeiten. Und ich bin glücklich. Etwas in mir löst sich. Eine mentale Tür geht auf und ein Energieschub kommt herein. Und das nicht sofort, aber es passiert, es passiert. Ich fühle es. Das Summen kommt langsam zurück. Keine volle Lautstärke, kaum da, es ist leise, kaum hörbar, aber es ist da. Nicht das Summen, aber ein Summen. Und jetzt fühle ich mich, als würde ich ein magisches Geheimnis kennen. Aber lassen Sie uns bei der Sache bleiben. Es ist Liebe. Das ist alles. Keine Magie. Kein Geheimnis. Nur Liebe. Es ist etwas, das wir vergessen haben. Das Summen, das Arbeitssummen, das Titanensummen, das ist nur der Ersatz. Wenn ich Sie frage, wer Sie sind, wenn ich Ihnen sage, wer ich bin, wenn ich mich beschreibe mithilfe von Sendungen und Fernsehstunden und wie funktionsfähig mein Gehirn ist, dann habe ich vergessen, was das wirkliche Summen ist. Das Summen ist keine Kraft und es ist nicht arbeitsspezifisch. Es ist von der Freude abhängig. Das echte Summen ist abhängig von der Liebe. Das Summen ist der Strom, der von der Lebenslust kommt. Das echte Summen ist Selbstbewusstsein und Frieden. Das echte Summen ignoriert den Druck der Geschichte, die zu erledigenden Aufgaben, die Erwartung und den Druck. Das echte Summen ist einfach und originell. Das echte Summen ist Gottes Stimme in meinem Ohr, aber vielleicht flüsterte mir Gott die falschen Wörter zu, denn welcher Gott sagte mir, dass ich ein Titan bin? Es ist einfach nur Liebe. Wir alle brauchen ein bisschen mehr Liebe, viel mehr Liebe. Sobald mein Kind mit mir spielen will, werde ich Ja sagen. Ich mache das zur festen Regel, sodass ich mich als Workaholic von jeglicher Schuld befreien kann. Es ist Gesetz, ich habe keine andere Wahl. Ich habe keine andere Wahl, sofern ich das Summen wieder hören will. Ich wünschte, es wäre so einfach. Ich bin nicht gut im Spielen, ich mag es nicht. Spielen liegt mir nicht ansatzweise so, wie arbeiten. Die Wahrheit tut weh, aber ich mag es nicht zu spielen. Ich arbeite immer, denn ich liebe es. Ich bin lieber am Arbeitsplatz als daheim. Dieses Eingeständnis ist schmerzhaft, denn was für ein Mensch arbeitet lieber als zu Haus zu sein? Nun ja, ich. Mal ehrlich, Ich nenne mich selbst „Titan" -- ich muss Probleme haben. Dass ich zu relaxed bin, ist keines davon. Wir rasen im Garten herum, vor und zurück, hin und her. Wir machen kleine Tanz-Parties, wir singen und spielen Ball. Wir zerplatzen Seifenblasen. Dabei fühle ich mich überwiegend steif, abwesend und verwirrt. Ich greife immer nach meinem Handy. Doch es ist o.k. Meine Kinder zeigen mir, wie man lebt, und das Summen des Universums erfüllt mich. Ich spiele und spiele, bis ich mich frage: Warum haben wir je mit dem Spielen aufgehört? Sie können es auch! Sagen sie immer dann Ja, wenn Ihr Kind mit Ihnen spielen möchte. Vielleicht halten Sie mich für naiv, für eine Tagträumerin. Da haben Sie wohl recht, aber Sie können es auch tun! Sie haben Zeit! Und wissen Sie auch warum? Sie sind nicht Rihanna oder eine Muppet-Show-Figur. Ihr Kind findet Sie weniger interessant, als Sie denken. Es sind nur 15 Minuten. Meine Kleinen wollen höchstens 15 Minuten mit mir spielen, bis ihnen einfällt, dass sie etwas anderes machen wollen. Es sind wunderbare 15 Minuten, aber eben nur 15 Minuten. Nach 15 Minuten ersetzt mich ein Marienkäfer oder Keks. Und redet meine Teenie-Tochter ganze 15 Minuten lang mit mir, bin ich Mutter des Jahres. Es sind nur 15 Minuten, mehr bedarf es nicht. Jeder kann 15 Minuten am Stück aufbringen, selbst an einem Schlechte-Laune-Tag! 15 Minuten am Stück! Kein Handy, keine Wäsche, keinerlei Ablenkung. Der Tag ist kurz: Abendessen, die Kinder bettfertig machen. Aber 15 Minuten sind drin! Meine Kinder sind meine Wohlfühloase, meine Welt. Es müssen nicht die Kinder sein. Es gilt, das Summen zu fühlen, einen Platz für seinen Seelenfrieden zu haben. Es geht nicht ums Spielen mit den eigenen Kindern. Es geht um Freude, um das „Spielen" im Allgemeinen. Gönnen Sie sich die 15 Minuten! Finden Sie heraus, was Ihnen gut tut. Finden Sie es heraus und bewahren Sie es sich. Ich bin nicht perfekt darin. Ich scheitere und ich siege. Freunde treffen, Bücher lesen, den Tag genießen -- „Willst du spielen?" steht kurz für alles, was ich aufgegeben habe, als ich meine erste TV-Show bekam, als ich ein Titan in der Ausbildung wurde, als ich mich selbst mehr und mehr übertreffen wollte. 15 Minuten am Stück, warum sich nicht volle 15 Minuten gönnen? Was kann daran falsch sein? Nichts! Das Summen kam in meiner Freizeit zurück. Das Summen scheint dann zurückzukehren, wenn ich nicht arbeite. Arbeiten funktioniert nicht ohne Spielen. Es braucht Zeit, aber nach ein paar Monaten öffnet sich eine Tür, die Energie strömt herein und ich finde mich in meinem Büro wieder. Ich höre eine unbekannte Melodie, sie erfüllt mich und meine Seele. Sie verleitet mich zu neuen Ideen. Das Summen hat sich wieder seinen Weg gebahnt. Ich nutze es in vollen Zügen und liebe meine Arbeit wieder. Ich mag das Summen, aber ich liebe es nicht. Ich brauche es nicht. Ich bin nicht das Summen, das Summen ist nicht ich ... nicht mehr. Seifenblasen und klebrige Finger, Abendessen mit Freunden. Das ist nun mein Summen. Das Summen des Lebens. Das Summen der Liebe. Das Summen der Arbeit ist Teil von mir, aber eben nur noch ein Teil. Und dafür bin ich so dankbar. Es ist mir schnuppe, dass ich ein Titan bin. Ich habe noch nie einen Titan gesehen, der Reise nach Jerusalem spielt. Ich sagte Ja zu weniger Arbeit und zu mehr Spielen. Und trotzdem habe ich alles im Griff. Mein Gehirn ist noch funktionsfähig. Meine Lagerfeuer brennen noch. Je mehr ich spiele, desto glücklicher sind ich und meine Kinder. Je mehr ich spiele, desto mehr fühle ich mich als gute Mutter. Je mehr ich spiele, desto klarer ist mein Kopf. Je mehr ich spiele, desto besser arbeite ich. Je mehr ich spiele, desto mehr höre ich das Summen. Das Land, das ich erschaffe, den Marathon, den ich laufe, die Truppen, die Leinwände, der hohe Ton, das Summen, das Summen, das andere, das richtige Summen: Das Summen des Lebens. Je mehr ich dieses Summen fühle, desto mehr macht sich dieses ungewöhnliche, bebende, nackte und neue Lebensgefühl in mir breit. Weniger Titan -- mehr ich! Je mehr ich genau dieses Summen fühle, desto mehr weiß ich, wer ich bin. Ich bin Autorin. Ich denke mir Dinge aus, ich erwecke Sie zum Leben. Das gehört zum Job, das bedeutet, seinen Traum zu leben. Das ist der Traum dieses Jobs, denn ein Traumjob sollte ein wenig träumerisch sein. Ich sagte „Ja" zu weniger Arbeit und zu mehr Spielen. Titanen haben hier keine Chance. „Willst du spielen?" Danke schön. http://www.ted.com/talks/jocelyne_bloch_the_brain_may_be_able_to_repair_itself_with_help TED Talk Subtitles and Transcript: Aus ihren Behandlungen von Schlaganfällen und Traumata nach Verkehrsunfällen weiß Neurochirurgin Jocelyne Bloch nur allzu gut um die mangelnde Selbstheilungskraft des Gehirns. Aber jetzt könnten sie und ihre Kollegen den Schlüssel zur neuronalen Selbstheilung gefunden haben: Doublecortin-positive Zellen. Ähnlich wie Stammzellen sind sie sehr anpassungsfähig. Wenn man sie dem Gehirn entnimmt, kultiviert und dann in einem verletzten Bereich desselben Gehirns reimplantiert, können sie den Wiederaufbau und den Heilungsprozess hilfreich unterstützen. "Mit ein wenig Hilfe," sagt Bloch, "könnte das Gehirn in der Lage sein, sich selbst zu heilen." talks, Surgery, brain, health, medical research, medicine, mind, neuroscience, science 2429 Jocelyne Bloch: Das Gehirn kann sich selbst heilen – mit etwas Hilfe Angelika Lueckert Leon Ueli Niederer Ich bin Neurochirurgin. Wie die meisten meiner Kollegen habe ich jeden Tag mit menschlichen Tragödien zu tun. Ich weiß, wie sich Ihr Leben von einer Sekunde auf die andere ändern kann, nach einem schweren Schlaganfall oder nach einem Autounfall. Für uns Neurochirurgen ist es sehr frustrierend, dass das Gehirn, im Gegensatz zu anderen Körperorganen, eine sehr geringe Fähigkeit zur Selbstheilung hat. Nach einer schweren Verletzung des zentralen Nervensystems haben die Patienten oft eine bleibende, schwere Behinderung. Das ist wohl der Grund, warum ich funktionelle Neurochirurgin wurde. Was ist ein funktioneller Neurochirurg? Ein Arzt, der versucht, die Nervenfunktionen durch verschiedene chirurgischen Maßnahmen zu verbessern. Sicher haben sie von einer der bekanntesten gehört, der "Tiefenhirnstimulation". Dabei implantiert man eine Elektrode tief im Gehirn, um die Schaltkreise der Neuronen so zu beeinflussen, dass sich die neurologische Funktion verbessert. Es ist wirklich eine erstaunliche Technologie. Sie hat das Schicksal von Patienten mit Parkinson verbessert, die unter heftigem Zittern und schweren Schmerzen litten. Neuromodulation jedoch bedeutet nicht Neuro-Heilung. Der Traum funktionaler Neurochirurgen ist die Wiederherstellung des Gehirns. Meiner Meinung nach nähern wir uns diesem Traum. Ich möchte Ihnen zeigen, dass wir sehr nahe dran sind. Mit etwas Hilfe kann das Gehirn sich selbst helfen. Die Geschichte begann vor 15 Jahren. Zu der Zeit war ich leitende Oberärztin und arbeitete Tag und Nacht in der Notaufnahme. Oft versorgte ich Patienten mit Schädel-Hirn-Trauma. Sie müssen sich vorstellen, dass bei Schädel-Hirn-Traumata das Gehirn anschwillt und der Schädelinnendruck ansteigt. Um das Leben zu retten, muss man den Schädelinnendruck vermindern. Dafür muss man manchmal einen Teil geschwollener Hirnmasse entfernen. Anstatt die geschwollene Hirnmasse wegzuwerfen, entschlossen wir uns mit Jean-François Brunet, einem meiner Kollegen, ein Biologe, die Hirnmasse zu analysieren. Was meine ich damit? Wir wollten Zellen aus diesem Gewebe wachsen lassen. Das ist keine leichte Aufgabe. Zellen von einem Gewebestück wachsen zu lassen, ist vergleichbar mit ganz kleinen Kindern, die aus Ihren Familien herausgenommen werden. Man muss die richtige Ernährung, Temperatur, Feuchtigkeit und die Umgebungen finden, um sie gedeihen zu lassen. Genau das mussten wir mit diesen Zellen machen. Nach vielen Versuchen schaffte es Jean-François. Das sah er unter seinem Mikroskop. Das war für uns eine große Überraschung. Warum? Es sah genau so aus wie eine Stammzellenkultur. Mit großen grünen Zellen, die von kleinen, unreifen Zellen umgeben sind. Vielleicht wissen Sie noch aus dem Biologieunterricht, dass Stammzellen unreife Zellen sind, die sich in jeden Zelltyp des Organismus verwandeln können. Das erwachsene Gehirn hat Stammzellen, aber sehr wenige. Sie sind in tiefen, kleinen Nischen des Gehirns verborgen. Es ist überraschend, diese Art von Stammzellen aus dem Oberflächengewebe der Hirnmasse in der OP zu erhalten. Wir machten eine weitere faszinierende Beobachtung: Normale Stammzellen sind sehr aktiv -- sie teilen sich sehr schnell. Sie sterben nie, sie sind unsterblich. Aber diese Zellen verhielten sich anders. Sie teilten sich langsam und nach ein paar Wochen starben sie sogar. Wir sahen also eine neue, seltsame Zellpopulation, die wie Stammzellen aussah, sich aber anders verhielt. Wir brauchten lange, um zu verstehen, woher sie kamen. Sie stammen von diesen Zellen. Diese blauen und roten Zellen heißen Doublecortin-positive Zellen. Wir alle haben sie in unserem Gehirn. Sie machen 4 % unserer Großhirnrindenzellen aus. Sie spielen eine sehr wichtige Rolle in unserer Entwicklung. Im Stadium des Fötus sorgen sie für die Faltung des Gehirns. Aber warum bleiben sie uns erhalten? Das wissen wir nicht. Wir glauben, dass sie sich an der Heilung des Gehirns beteiligen, da wir sie in höheren Konzentrationen nahe an Gehirnverletzungen finden. Das ist jedoch nicht so sicher. Eine Sache ist jedoch klar -- von diesen Zellen erhielten wir unsere Stammzellen. Wir stehen vor einer potenziellen Zellquelle, die Gehirnheilung ermöglicht. Das mussten wir beweisen. Also entschlossen wir uns, ein Experiment zu entwickeln. Wir wollten ein Stück Gehirnmasse aus dem nichtsprachlichen Bereich entnehmen und dann die Zellen genau so kultivieren, wie es Jean-François tat und sie anschließend farblich markieren, um sie im Gehirn verfolgen zu können. Im letzten Schritt reimplantierten wir sie an der Entnahmestelle desselben Individuums. Wir nennen das autologe Transplantation -- Autotransplantation. Eine unserer ersten Fragen war: Was passiert, wenn wir diese Zellen in normales Hirngewebe reimplantieren? Und was wird passieren, wenn wir die gleichen Zellen in geschädigtes Gehirngewebe reimplantieren? Dank der Hilfe von Prof. Eric Rouiller konnten wir mit Affen arbeiten. Im ersten Szenario reimplantierten wir die Zellen in ein gesundes Gehirn, und wir beobachteten, dass sie nach einigen Wochen komplett verschwanden, als wären sie wieder entnommen worden, gehen sie zurück nach Hause. Der Raum ist schon besetzt, sie werden dort nicht gebraucht, also verschwinden sie. Im zweiten Szenario fügten wir eine Verletzung zu und reimplantierten genau die gleichen Zellen und nun blieben die Zellen erhalten -- sie wuchsen zu reifen Neuronen heran. Hier sehen Sie, was wir unter dem Mikroskop beobachten konnten. Das sind die Zellen, die reimplantiert wurden. Der Beweis, den sie zeigen, sind diese kleinen Punkte. Das sind die Zellen, die wir in vitro, in der Kultur färbten. Hier konnten wir natürlich nicht aufhören. Helfen diese Zellen auch einem Affen, sich von einer Hirnverletzung zu erholen? Also trainierten wir Affen mit einer manuellen Geschicklichkeitsaufgabe. Sie mussten Futterpellets von einem Tablett nehmen. Das machten sie sehr gut. Als sie ein stabiles Geschicklichkeitsniveau erreicht hatten, verletzten wir im motorischen Cortex den Handmotorik-Bereich. Daraufhin waren die Affen gelähmt, sie konnten ihre Hand nicht mehr bewegen. Genau wie es bei Menschen geschehen würde, erholten sie sich spontan bis zu einem gewissen Grad, genau wie nach einem Schlaganfall. Die Patienten sind gelähmt und dann versuchen sie sich mit Hilfe plastischer Gehirnmechanismen zu erholen. Sie erholen sich zu einem gewissen Grad, genauso wie beim Affen. Als wir sicher waren, dass der Affe sein Grad der spontanen Erholung erreicht hatte, implantierten wir seine eigenen Zellen. Auf der linken Seite sehen sie den Affen, der sich spontan erholte. Er kann etwa 40 % bis 50 % seiner ursprünglichen Leistung von vor der Verletzung erbringen. Er ist nicht so präzise und nicht so schnell. Sehen Sie nun, als wir die Zellen reimplantierten: Der gleiche Affe, zwei Monate nach der Reimplantation. Ich kann Ihnen sagen, das waren auch für uns sehr aufregende Ergebnisse. Seit dieser Zeit haben wir sehr viel mehr über diese Zellen herausgefunden. Wir können sie einfrieren und später verwenden. Wir können sie in anderen neuropathologischen Modellen verwenden, zum Beispiel bei Parkinson. Aber unser Traum ist noch immer, sie beim Menschen zu implantieren. Ich hoffe wirklich, dass ich Ihnen bald zeigen kann, wie uns das menschliche Gehirn die Mittel gibt, sich selbst zu heilen. Vielen Dank. Bruno Giussani: Jocelyne, das ist wunderbar, ich bin sicher, dass gerade jetzt, mehrere Dutzend Leute im Publikum, vielleicht sogar die Mehrheit, denken: "Ich kenne jemanden, der das brauchen kann." Ich auf jeden Fall. Natürlich ist die Frage, was die größten Hindernisse sind, bevor Sie klinische Studien am Menschen beginnen können. Jocelyne Bloch: Die größten Hindernisse sind die Behörden. Ausgehend von diesen tollen Ergebnissen muss man etwa zwei Kilogramm Papiere und Formulare ausfüllen, um diese Art von Studien zu durchlaufen. BG: Das ist verständlich, das Gehirn ist sehr delikat usw. JB: Ja, aber es braucht eine lange Zeit, eine Menge Geduld und ein fast professionelles Team. BG: Schauen Sie in die Zukunft -- Sie haben die Forschung abgeschlossen und versuchten die Erlaubnis zum Start der klinischen Studien zu bekommen. Wenn Sie weiter in die Zukunft schauen, wie viele Jahre dauert es, bis jemand ins Krankenhaus kommen kann, und diese Therapie verfügbar sein wird. JB: Das ist schwer zu sagen. Zunächst hängt es von der Zulassung der klinischen Studie ab. Wird es uns die Behörde erlauben, es bald zu starten? Dann muss man diese Studie mit einer kleinen Gruppe von Patienten durchführen. Es braucht schon eine lange Zeit, die Patienten auszuwählen, die Behandlungen durchzuführen und zu bewerten, ob es nützlich ist, diese Art von Behandlung zu machen. Danach muss man das auf eine multizentrische Studie anwenden. Man muss zuerst wirklich nachweisen, dass es nützlich ist, bevor man diese Behandlung jedem anbieten kann. BG: Und dass es sicher ist, natürlich. JB: Natürlich. BG: Jocelyne, danke für Ihren Besuch bei TED und dass Sie uns davon erzählt haben. BG: Vielen Dank. http://www.ted.com/talks/yanis_varoufakis_capitalism_will_eat_democracy_unless_we_speak_up TED Talk Subtitles and Transcript: Haben Sie sich gefragt, warum die Politiker nicht mehr so sind wie früher? Warum die Regierungen scheinbar unfähig sind, die wahren Probleme zu lösen? Der Wirtschaftswissenschaftler Yanis Varoufakis, ehemaliger Finanzminister Griechenlands, sagt, es liegt daran, dass man heute in der Regierung sein kann und trotzdem nicht an der Macht ‒ denn die wahre Macht liegt heute bei denen, die die Wirtschaft kontrollieren. Er glaubt, dass Mega-Reiche und Konzerne die Politik kannibalisieren, mit der Folge von Finanzkrisen. In diesem Vortrag erfahren Sie von seinem Traum einer Welt, in der das Kapital und die Arbeit nicht mehr miteinander konkurrieren und "die gleichzeitig libertär, marxistisch und keynesianisch ist." talks, Europe, United States, activism, big problems, business, capitalism, democracy, economics, finance, global issues, government, investment, leadership, money, politics, society 2413 Yanis Varoufakis: Kapitalismus frisst Demokratie ‒ wenn wir nicht handeln Nadine Hennig Vassili Bertakis Demokratie. Wir im Westen machen einen großen Fehler, sie als selbstverständlich zu betrachten. Wir sehen die Demokratie nicht als die zerbrechliche Pflanze, die sie in Wirklichkeit ist, sondern als Inventar unserer Gesellschaft. Wir neigen dazu, sie als unveränderliche Gegebenheit zu betrachten. Wir glauben, dass Kapitalismus zwangsläufig zu Demokratie führt. Das stimmt nicht. Lee Kuan Yew aus Singapur und seine großen Nachahmer in Peking haben zweifelsfrei bewiesen, dass es durchaus möglich ist, einen blühenden Kapitalismus und beeindruckendes Wachstum zu haben, während die Politik komplett undemokratisch bleibt. Tatsächlich schwindet die Demokratie bei uns, in Europa. Anfang des Jahres, als ich Griechenland repräsentierte -- die neu gewählte griechische Regierung -- wurde mir als Finanzminister in der Eurogruppe unmissverständlich klargemacht, dass der demokratische Prozess unseres Landes -- unsere Wahlen -- nicht die Sparprogramme beeinflussen dürften, die in Griechenland verwirklicht wurden. In diesem Moment dachte ich, dass es wohl keine bessere Rechtfertigung für Lee Kuan Yew oder die Kommunistische Partei Chinas geben könnte, oder einige meiner aufsässige Freunde, die mir wiederholt sagten, dass die Demokratie abgeschafft würde, wenn sie irgendetwas verändern würde. An dieser Stelle möchte ich Ihnen ein wirtschaftliches Modell für eine echte Demokratie vorstellen. Ich bitte Sie, gemeinsam mit mir, wieder daran zu glauben, dass Lee Kuan Yew, die Kommunistische Partei Chinas und sogar die Eurogruppe einem Irrglauben erliegen, wir könnten uns die Demokratie sparen, sondern, dass wir eine wahrhafte und wehrhafte Demokratie benötigen. Denn ohne Demokratie werden unsere Gesellschaften gemeiner, unsere Zukunft düster und unsere großartigen, neuen Technologien verschwendet. Zum Thema Verschwendung möchte ich Sie auf einen interessanten Widerspruch hinweisen, der aktuell unsere Wirtschaften bedroht. Ich nenne es das "Zwillingsgipfel-Paradox". Ein Gipfel ist Ihnen bekannt. Sie kennen und erkennen ihn als den Schuldenberg, der seinen langen Schatten über die USA, Europa und die ganze Welt wirft. Wir alle erkennen den Schuldenberg, doch nur wenige erkennen seinen Zwilling. Ein Berg von ungenutztem Bargeld, das den vermögenden Sparern und Konzernen gehört, die jedoch zu ängstlich sind, es dort zu investieren, wo es produktiv wäre und Einkommen einbringen könnte, mit dem man den Schuldenberg abtragen und auch all die Dinge produzieren könnte, die die Menschheit dringend benötigt, zum Beispiel "grüne" Energie. Ich nenne ihnen dazu zwei Zahlen. In den vergangenen 3 Monaten wurden in den USA, in England und in der Eurozone zusammengenommen 3,4 Billionen US-Dollar investiert, in all die Wohlstand produzierenden Güter, wie Industrieanlagen, Maschinen, Bürogebäude, Schulen, Straßen, Gleise, Ausrüstung und so weiter und so fort. 3,4 Billionen US-Dollar klingt nach viel Geld, bis man es mit den 5,1 Billionen US-Dollar vergleicht, die zur gleichen Zeit in denselben Ländern und unseren Finanzinstituten herumlagen, und absolut nichts taten, außer die Börsen aufzublähen und die Immobilienpreise hochzutreiben. So bilden Schulden und unproduktives Kapital die Zwillingsgipfel, die sich durch die üblichen Marktmechanismen nicht ausgleichen. Das Ergebnis sind stagnierende Löhne, mehr als ein Viertel der 25-54-Jährigen in den USA, Japan und Europa arbeitslos, und folglich eine niedrige gesamtwirtschaftliche Nachfrage, die wie in einer Endlosschleife den Pessimismus der Investoren verstärkt, die, eine niedrige Nachfrage befürchtend, diese selbst befördern, in dem sie nicht investieren. Genau wie Ödipus Vater, der aus Angst, die Prophezeiung des Orakels könnte wahr werden, dass sein Sohn ihn töten würde, wenn er erwachsen wird, ungewollt die Umstände herbeiführt, die dazu führen, dass Ödipus ihn tötet. Das ist mein Hadern mit dem Kapitalismus -- seine überaus verschwenderische Art. All das unproduktive Kapital sollte eingesetzt werden, unser Leben zu verbessern, menschliche Talente weiterzuentwickeln und besonders all die Technologien zu finanzieren, "grüne" Technologien, die entscheidend für die Rettung der Erde sind. Ist also Demokratie die Lösung? Ich glaube schon. Aber bevor wir fortfahren: Was verstehen wir unter Demokratie? Aristoteles definierte Demokratie als die Gesellschaftsform, in der die Freien und die Armen als Mehrheit die Regierung kontrollieren. Die athenische Demokratie schloss natürlich zu viele aus -- Frauen, Ausländer, und natürlich Sklaven. Es wäre jedoch ein Fehler, den Stellenwert der athenischen Demokratie aufgrund dieser Ausschlüsse zu mindern. Das Entscheidende an der athenischen Demokratie war und ist, dass sie die arbeitenden Armen einbezog, und ihnen nicht nur das Recht auf freie Meinungsäußerung gab, sondern wichtiger und entscheidender ist, das sie ihnen das Recht auf politische Mitbestimmung mit gleicher Stimmgewichtung in Fragen der Staatsbelange einräumte. Die athenische Demokratie hat zwar nicht lange gehalten -- wie eine Kerze, die sehr hell leuchtet, ist sie auch schnell ausgebrannt. Allerdings haben unsere heutigen liberalen Demokratien ihre Wurzeln nicht im antiken Athen, sondern in der Magna Carta, in der glorreichen Revolution von 1688, sogar in der amerikanischen Verfassung. Während die athenische Demokratie sich auf die freien Bürger konzentrierte und die arbeitenden Armen stärkte, basiert unsere liberale Demokratie auf den Werten der Magna Carta, die letztlich eine Satzung für Herrschende war. Denn die liberale Demokratie kam erst auf, als eine vollständige Trennung von Politik und Wirtschaft möglich und der demokratische Prozess auf die Politik eingegrenzt wurde, während die Wirtschaft -- also die Welt der Konzerne -- eine demokratiefreie Zone wurde. In unseren heutigen Demokratien findet seit dem Zeitpunkt, an dem diese Trennung von Politik und Wirtschaft begann, ein unerbittlicher Kampf zwischen den beiden statt, indem die Wirtschaft allmählich die Politik unterwandert und sie entmachtet. Wundern Sie sich, warum die Politiker nicht mehr so sind wie früher? Es liegt nicht an einer Degeneration ihrer DNA. Es liegt daran, dass man heutzutage in der Regierung sein kann und trotzdem nicht an der Macht, weil die Macht von der Politik in die Wirtschaft abgewandert ist und die Bereiche getrennt sind. Ich erwähnte mein Hadern mit dem Kapitalismus. Wenn Sie darüber nachdenken, ist es in etwa so wie eine Herde von Raubtieren, die so nachhaltig die Tiere, von denen sie sich ernährt, dezimiert hat, dass sie am Ende deshalb verhungert. Ähnlich ist es mit der Wirtschaft, die die Politik so weit kannibalisiert hat, dass sie sich durch die selbstverursachte Wirtschaftskrise selbst schadet. Die Macht der Konzerne wächst, politische Güter werden entwertet, die Ungleichheit steigt, die gesamtwirtschaftliche Nachfrage fällt und die Geschäftsführer der Konzerne sind zu verängstigt, das Bargeld ihrer Unternehmen zu investieren. Je erfolgreicher der Kapitalismus den "Demos" [das Volk] aus der Demokratie vertreibt, desto höher werden die Zwillingsgipfel, und umso größer die Verschwendung von menschlicher Arbeitskraft und des Wohlstandes der Menschheit. Wenn das stimmt, ist es offensichtlich, dass wir die Politik und die Wirtschaft wieder zusammenbringen müssen, und es wäre besser, wenn dabei der "Demos" die Kontrolle behält, so wie im antiken Athen, abgesehen vom Ausschluss der Sklaven, der Frauen und der Ausländer. Das ist übrigens keine neue Idee. Die marxistische Linke hatte diese Idee schon vor 100 Jahren und es ging nicht sonderlich gut aus. Die Lehre aus dem Debakel der Sowjetunion sollte sein, dass die arbeitenden Armen nur durch ein Wunder eine Stellung wie im antiken Athen wiedererlangen, ohne neue Arten der Brutalität und Verschwendung zu schaffen. Aber es gibt eine Lösung: Die arbeitenden Armen abschaffen! Der Kapitalismus tut es, indem er Niedriglohnbeschäftigte durch Automatisierung und Roboter ersetzt. Das Problem dabei ist, so lange Wirtschaft und Politik getrennte Bereiche sind, lässt die Automatisierung die Zwillingsgipfel höher werden, die Verschwendung erhabener, und die sozialen Konflikte tiefer, so wie es -- schon sehr bald, wie ich glaube -- in Ländern wie China kommen wird. Wir müssen also die Wirtschaft umgestalten und die Bereiche Wirtschaft und Politik wieder vereinen, und dabei darauf achten, dass wir den wiedervereinten Bereich demokratisieren, sonst enden wir in einer krankhaften Überwachungs-Hyperautokratie, die den Film "Matrix" wie eine Dokumentation erscheinen lässt. Die Frage ist also nicht, ob der Kapitalismus die technischen Errungenschaften, die er hervorgebracht hat, überleben wird -- die interessantere Frage ist, ob der Kapitalismus durch eine Dystopie, ähnlich der in "Matrix", abgelöst wird oder durch etwas, das der Gesellschaft in "Star Trek" ähnelt, in der Maschinen den Menschen dienen und die Menschen ihre Energie in die Erforschung des Universums stecken, oder in eine Hightech-Version der antiken Athener "Agora", in langen Gesprächen dem Sinn des Lebens frönen. Ich glaube, wir dürfen optimistisch sein. Was bräuchte es also, wie könnte es aussehen, diese "Star Trek"-artige Utopie anstatt der "Matrix"-ähnlichen Dystopie zu haben? In der praktischen Umsetzung möchte ich Ihnen, in aller Kürze, einige Beispiele nennen. Im Bereich der Unternehmen: Stellen Sie sich bitte einen Kapitalmarkt vor, in dem man Geld verdient, während man arbeitet und in dem Ihr Kapital Ihnen von einer Arbeitsstelle zur nächsten folgt, von einer Firma zur nächsten, und die Firma -- egal in welcher man gerade arbeitet -- ist Eigentum derer, die aktuell in der Firma arbeiten. Dann entstammen alle Einkommen aus Kapital und aus Erlösen und das Konzept der Lohnarbeit ist vollkommen überholt. Keine Unterscheidung mehr zwischen denen, den die Unternehmen gehören, die aber nicht darin arbeiten, und Angestellten, die dort arbeiten, denen die Firma aber nicht gehört. Kein Tauziehen mehr zwischen Kapital und Arbeit, keine großen Lücken zwischen Investition und Sparen, und letztlich keine emporragenden Zwillingsgipfel. Im Bereich der globalen politischen Ökonomie: Stellen Sie sich bitte kurz vor, dass unsere nationalen Währungen einen frei schwankenden Wechselkurs hätten, in einer universellen, globalen, digitalen Währung, die vom IWF [Internationalen Währungsfonds], und der G-20 [Gruppe der 20 größten Schwellenländer], im Interesse der gesamten Menschheit ausgegeben wird. Stellen Sie sich weiterhin vor, dass der gesamte Welthandel in dieser Währung gehandelt wird -- nennen wir sie "den Kosmos", in Einheiten von "Kosmos"' -- und jede Regierung zahlt die Summe, die dem Handelsdefizit oder dem Handelsüberschuss des jeweiligen Landes entspricht, in einen gemeinsamen Fonds ein. Stellen Sie sich auch vor, dass dieser Fonds in "grüne" Technologien investiert, besonders in Teilen der Welt, in denen Investitionsmittel rar sind. Das ist keine neue Idee. Es ist im Grunde das, was John Maynard Keynes in der Bretton Woods Conference von 1944 vorgeschlagen hatte. Das Problem war, dass man damals nicht die technischen Mittel hatte es umzusetzen. Heute haben wir sie, insbesondere vor dem Hintergrund einer wiedervereinten Politik und Wirtschaft. Die Welt, die ich Ihnen beschreibe, ist gleichzeitig libertär, in dem sie privilegierte Personen bevorzugt, und marxistisch, weil sie die Trennung von Kapital und Arbeit im Mülleimer der Geschichte begraben haben wird, und keynesianisch, global keynesianisch. Aber über allem anderen ist es eine Welt, in der wir uns eine echte Demokratie vorstellen können. Werden wir in einer solchen Welt erwachen oder werden wir in eine "Matrix"- ähnliche Dystopie versinken? Die Antwort hängt davon ab, wie wir uns gemeinsam politisch entscheiden. Es liegt in unseren Händen, und wir tun es besser demokratisch. Danke. Bruno Giussani: Yanis ... Du beschreibst dich in deiner Biografie selbst als libertären Marxisten. Wie relevant ist Marx' Analyse heute? Yanis Varoufakis: Wenn irgendwas von dem, was ich gerade gesagt habe relevant ist, dann ist Marx relevant. Der Grund für der Wiedervereinigung von Politik und Wirtschaft ist ... Tun wir das nicht, wird die technologische Entwicklung einen so massiven Rückgang der gesamtwirtschaftlichen Nachfrage erzeugen, was Larry Summers als "langfristige Stagnation" bezeichnet. Durch die Übertragung dieser Krise von einem Teil der Erde auf das nächste, wie wir es aktuell erleben, wird es nicht nur unsere Demokratien destabilisieren, sondern auch die Länder, deren Interesse an liberaler Demokratie gering ist. Wenn diese Analyse zutreffend ist, dann ist Marx durchaus relevant, ebenso wie Hayek, deswegen bin ich ein libertärer Marxist, und wie Keynes, und deshalb bin ich auch vollkommen wirr. BG: Tatsächlich, und jetzt sind wir es wohl auch. YV: Wenn man nicht wirr ist, denkt man nicht genug nach. BG: Das ist eine sehr griechische, eine Art philosophische Erklärung -- YV: Eigentlich war es Einstein, der das sagte. BG: In Ihrem Vortrag erwähnten Sie Singapur und China und gestern beim Abendessen der Redner haben Sie sehr klar gesagt, was Sie von der Sicht des Westens auf China halten. Möchten Sie es hier wiederholen? YV: Es gibt ein großes Maß an Heuchelei. In unseren liberalen Demokratien haben wir den Anschein einer Demokratie. Wie ich im meinem Vortrag sagte, haben wir die Demokratie auf die Politik begrenzt, während der Bereich, wo sich das meiste abspielt, -- der Bereich der Wirtschaft -- ein völlig demokratiefreie Zone ist. In gewisser Hinsicht, wenn ich das so provokativ sagen darf, ähnelt China heute dem England des 19. Jahrhunderts. Denn -- erinnern Sie sich -- wir neigen dazu, Liberalismus mit Demokratie zu verbinden -- das ist ein Fehler, historisch betrachtet. Liberalismus, Liberale, wie John Stuart Mill -- er war besonders skeptisch, was die demokratische Entwicklung betrifft. Was man jetzt in China beobachten kann, ähnelt sehr der Entwicklung, die wir in England während der industriellen Revolution hatten, besonders der Übergang von der ersten zur zweiten. China jetzt vorzuwerfen, das zu tun, was der Westen im 19. Jahrhundert selbst getan hat, riecht gewaltig nach Heuchelei. BG: Ich bin mir sicher, dass viele Zuhörer neugierig auf Ihre Erfahrungen als Finanzminister Griechenlands Anfang des Jahres sind. YV: Ich ahnte, dass das kommt. BG: Ja ... Wie schauen Sie sechs Monate später auf das erste Halbjahr zurück? YV: Sehr aufregend, aus persönlicher Sicht, und sehr enttäuschend, denn wir hatten die Gelegenheit, mit der Eurozone ein Neuanfang zu machen, nicht nur Griechenland, sondern die Eurozone, nämlich uns von der Selbstgefälligkeit zu verabschieden, und der dauernden Verleugnung, dass eine massive Verwerfungslinie durch die Eurozone verlief, und weiterhin verläuft, die die Entwicklung der ganzen Europäischen Union massiv bedroht. Wir hatten die Gelegenheit, auf Grundlage des griechischen Vorschlags -- der übrigens, der erste Vorschlag war, der diese Verleugnung offenbarte -- es richtig zu machen. Leider haben die Mächte innerhalb der Eurozone, innerhalb der Europgruppe, weiterhin die Verleugnung gewählt. Aber Sie wissen ja, was kommt. Das ist die Erfahrung aus der Sowjetunion -- wenn man versucht ein Wirtschaftssystem, das nicht überlebensfähig ist, durch politischen Willen und Autoritarismus am Leben zu erhalten, wird man es vielleicht eine Weile hinauszögern können, doch wenn dann der Wandel eintritt, passiert er abrupt und zerstörerisch. BG: Welchen Wandel sehen Sie voraus? YV: Es besteht kein Zweifel daran, dass die Eurozone keine Zukunft hat, wenn wir nicht ihren Aufbau ändern. BG: Habe Sie irgendwelche Fehler in Ihrer Zeit als Finanzminister gemacht? YV: Jeden Tag. BG: Zum Beispiel? YV: Jeder, der zurückschaut -- Ernsthaft... Wenn es einen Finanzminister, oder irgendeinen Minister gibt, der nach 6 Monaten im Amt, besonders in einer so angespannten Situation, behauptet, er habe keinen Fehler gemacht, dann ist das eine gefährliche Person. Natürlich habe ich Fehler gemacht. Der größte Fehler war, den Antrag zur Verlängerung des Schuldenprogramms Ende Februar zu unterzeichen. Ich glaubte, dass es ein ehrliches Interesse auf Seiten der Geldgeber gab, eine gemeinsame Lösung zu finden. Aber das gab es nicht. Sie wollten lediglich unsere Regierung zu Fall bringen, nur weil sie nicht mit den Verwerfungen beschäftigen wollten, die durch die Eurozone verliefen. Sie wollten sich nicht eingestehen, dass sie seit 5 Jahren ein katastrophales Programm in Griechenland durchführten. Wir verloren ein Drittel unseres nominalen BIP. Da ist schlimmer als während der "Großen Depression". Keiner aus der Troika der Geldgeber, die uns diese Politik auferlegt hat, gestand ein: "Das war ein kolossaler Fehler." BG: Trotz all dem, und trotz des aggressiven Tons der Gespräche, scheinen Sie noch recht pro-europäisch zu sein. YV: Absolut. Meine Kritik der Europäischen Union und der Eurozone gegenüber kommt von jemandem, der Europa lebt und liebt. Meine größte Angst ist, dass die Eurozone nicht überlebt. Denn wenn sie nicht überlebt, werden die freigesetzten Fliehkräfte dämonisch sein und die Europäische Union zerstören. Das wird nicht alleine für Europa katastrophale Folgen haben, sondern für die gesamte Weltwirtschaft. Wir sind wahrscheinlich die stärkste Wirtschaft der Welt. Wenn wir uns selbst gestatten den Weg eines postmodernes 1930 einzuschlagen, wonach es mir erscheint, wird es ebenso abträglich für die Zukunft der Europäer wie auch der Nicht-Europäer sein. BG: Wir hoffen sehr, dass Sie in diesem Punkt falsch liegen. Yanis, vielen Dank, dass Sie bei TED waren. YV: Danke. http://www.ted.com/talks/sebastian_wernicke_how_to_use_data_to_make_a_hit_tv_show TED Talk Subtitles and Transcript: Führt erhöhte Datensammlung zu einer besseren Entscheidungsfindung? Konkurrierende, Daten versierte Unternehmen wie Amazon, Google und Netflix haben gelernt, dass Datenanalyse allein nicht immer optimale Ergebnisse erzielt. In diesem Vortrag erklärt der Datenexperte Sebastian Wernicke, was falsch läuft, wenn wir unsere Entscheidungen ausschließlich auf Daten stützen, und schlägt dabei einen klügeren Weg zur Nutzung von Daten vor. talks, TEDx, algorithm, brain, data, decision-making, intelligence, media, technology 2403 Sebastian Wernicke: Erfolgreiche TV-Shows durch Datenanalyse? Elaine Streifthau Miriam Jassmeier Von Roy Price haben die meisten noch nie gehört, obwohl er wahrscheinlich für 22 mittelmäßige Minuten Ihres Lebens am 19. April 2013 verantwortlich ist. Wahrscheinlich auch für 22 sehr unterhaltsame Minuten, aber nicht für sehr viele von Ihnen. Das geht auf die Entscheidung zurück, die Roy vor drei Jahren traf. Roy Price ist leitender Angestellter bei Amazon Studios, der TV-Produktionsfirma von Amazon. Er ist 47 Jahre alt, schlank, hat eine Igelfrisur und beschreibt sich auf Twitter als "Filme, TV, Technik, Tacos". Roy hat einen sehr wichtigen Job, weil er dafür verantwortlich ist, die Shows und den Inhalt auszusuchen, den Amazon produzieren wird. Natürlich ist das eine sehr hart umkämpfte Branche. Es gibt schon so viele TV-Serien, dass Roy nicht irgendeine auswählen kann. Er muss Shows finden, die sehr, sehr gut sind. In anderen Worten, er muss Shows finden, die sich ganz rechts auf dieser Kurve befinden. Diese Kurve ist die Bewertungsverteilung von über 2500 TV-Serien auf der Website IMDB. Die Bewertung geht von 1 bis 10 und die Höhe zeigt, wie viele Shows diese Bewertung erhalten. Wird Ihre Show mit neun und höher bewertet, ist diese ein Gewinner. Dann hat man eine erfolgreiche Show. Das sind Shows wie "Breaking Bad", "Game of Thrones", "The Wire" -- all die Shows, die süchtig machen, wo, nachdem man eine Staffel geschaut hat, Ihr Gehirn fragt: "Wo gibt es mehr von diesen Episoden?" Diese Art von Show. Auf der linken Seite, hier an diesem Ende, sind Shows wie "Toddlers and Tiaras" -- -- das sollte Ihnen genug sagen, was an diesem Ende der Kurve abgeht. Roy Price sorgt sich nicht darum, auf die linke Seite der Kurve zu geraten, denn ich glaube man braucht schon besondere Intelligenz, um "Toddlers and Tiaras" zu unterbieten. Er macht sich mehr Gedanken über die mittlere Ausbeulung, das durchschnittliche Fernsehen -- die Shows, die weder gut noch schlecht sind, sie begeistern einfach nicht. Also muss er sicherstellen, dass er wirklich auf der richtigen Seite ist. Der Druck ist vorhanden, und natürlich ist es auch das erste Mal, dass Amazon so etwas macht, deshalb will Roy Price nichts riskieren. Er will Erfolge kreieren. Er benötigt garantierten Erfolg, also hält er einen Wettbewerb ab. Er nimmt viele Ideen für TV-Shows und wählt durch eine Auswertung acht Kandidaten für TV-Shows aus, dann produziert er die erste Episode jeder dieser Shows und stellt sie online, wo sie jeder kostenlos anschauen kann. Und wenn Amazon umsonst Sachen herausgibt, greift man doch zu, richtig? Millionen von Zuschauern schauen sich diese Episoden an. Jedoch wissen sie nicht, dass sie beim Anschauen dieser Shows beobachtet werden. Sie werden von Roy und seinem Team beobachtet, die alles aufnehmen. Sie erfassen, wann man die Show startet, wann man pausiert, welche Teile man überspringt bzw. nochmal anschaut. Sie sammeln Millionen von Daten, um mit diesen Daten dann zu entscheiden, welche Show sie produzieren sollten. In der Tat sammeln sie die Daten, verarbeiten diese und daraus ergibt sich die Antwort, und diese lautet: "Amazon sollte eine Sitcom über vier republikanische US-Senatoren machen." Sie machten diese Show. Kennt jemand den Namen dieser Show? Ja, "Alpha House", aber es scheint, dass sich nicht viele an diese Show erinnern können, weil sie nicht so gut war. Es ist nur eine Durchschnittsshow -- im wahrsten Sinne des Wortes -- da der Durchschnitt dieser Kurve 7,4 beträgt und Alpha House landet bei 7,5 -- also etwas über dem Durchschnitt, aber nicht gerade das, worauf Roy und sein Team hinarbeiteten. Etwa zur gleichen Zeit bei einer anderen Firma hat ein anderer Manager eine Top-Show durch Datenanalyse plaziert. Sein Name ist Ted, Ted Sarandos, der Manager für Programmgestaltung von Netflix. Genau wie Roy ist er immer auf der Suche, diese eine Super-Show zu finden und er benutzt auch Daten dafür, aber er macht es etwas anders. Anstatt einen Wettbewerb zu veranstalten, haben er und sein Team sich die vorhandenen Daten über die Netflix-Zuschauer angeschaut, also die Bewertungen, die sie den Shows geben, deren Verlauf, welche Shows sie mögen etc. Dann nutzen sie diese Daten, um diese kleinen Details über die Zuschauer herauszufinden: welche Shows sie mögen, welche Produzenten, welche Schauspieler. Als sie all die Teile zusammen hatten, gingen sie ein Wagnis ein und entschieden sich dazu, nicht eine Sitcom über vier Senatoren, sondern eine Drama-Serie über einen Senator zu machen. Kennen Sie diese Show? Ja, "House of Cards". Netflix hat damit einen Hit gelandet, zumindest für die ersten zwei Staffeln. "House of Cards" bekommt eine 9,1-Bewertung auf dieser Kurve. Also genau dort, wo sie hin wollten. Natürlich ist nun die Frage: Was ist hier passiert? Man hat zwei sehr kompetitive, Daten versierte Firmen. Sie verbinden diese vielen Daten miteinander und es funktioniert super für eine von ihnen, aber nicht für die andere Firma. Woran liegt das? Weil die Logik irgendwie besagt, dass das bei allem funktionieren sollte. Wenn man Millionen Daten sammelt, für eine Entscheidung, die man trifft, dann sollte man eine gute Entscheidung treffen können. Man hat 200 Jahre an Statistik als Back-Up. Man optimiert es durch sehr leistungsfähige Computer. Das Mindeste, was man erwarten kann, ist gutes Fernsehen, oder? Wenn Datenanalyse so nicht funktioniert, dann ist dies etwas erschreckend, weil wir in einer Zeit leben, in der wir mehr und mehr zu Statistiken greifen, um ernsthafte Entscheidungen zu treffen, weit über das Fernsehen hinaus. Kennt jemand hier die Firma Multi-Health Systems? Niemand. Ok, das ist sogar gut. Multi-Health Systems ist eine Software-Firma und ich hoffe, dass niemand in diesem Raum jemals in Berührung mit dieser Software kommt. Kommen Sie damit in Berührung, sind Sie im Gefängnis. Wenn jemand hier in den USA im Gefängnis ist und um Entlassung bittet, ist es wahrscheinlich, dass die Datenanalyse dieser Firma benutzt wird, um zu bestimmen, ob eine Entlassung erfolgt oder nicht. Genau wie bei Amazon und Netflix. Aber anstatt zu entscheiden, ob eine Show gut oder schlecht sein wird, wird entschieden, ob eine Person gut oder schlecht sein wird. Mittelmäßiges Fernsehen, 22 Minuten, das kann echt schlecht sein, aber noch mehr Jahre im Gefängnis sind schlimmer. Leider gibt es Beweise dafür, dass diese Datenanalyse, trotz der vielen Daten, nicht immer die besten Resultate erzeugt. Das liegt nicht daran, dass eine Firma wie Multi-Health Systems nicht weiß, wie man Daten nutzt. Auch die Daten versiertesten Firmen liegen mal falsch. Ja, selbst Google macht manchmal Fehler. 2009 gab Google bekannt, dass sie durch Datenanalyse Ausbrüche von Grippe, der schlimmen Art, voraussagen können -- durch Datenanalyse der Google-Recherchen. Es funktionierte wunderbar und war eine große Nachrichtensensation. Der Erfolg gipfelte in einer Veröffentlichung im Magazin "Nature". Es funktionierte einwandfrei, Jahr um Jahr um Jahr, bis es plötzlich nicht mehr funktionierte, und niemand konnte sagen warum. Es funktionierte einfach nicht, dies war erneut eine Sensation, einschließlich des Widerrufs der Veröffentlichung im Magazin "Nature". Selbst die Daten versiertesten Firmen wie Amazon und Google missverstehen manchmal etwas. Trotz all dieser Fehler strömen Daten zusehends in Entscheidungen des Lebens ein -- am Arbeitsplatz, bei der Rechtsdurchsetzung, in der Medizin. Also sollten wir lieber sicherstellen, dass Daten hilfreich sind. Auch ich kenne viele Schwierigkeiten mit Daten. Ich arbeite in der computergestützten Genetik -- ein Gebiet, bei dem einige sehr kluge Menschen unvorstellbar viele Daten nutzen, um ernsthafte Entscheidungen zu treffen, wie die Entscheidung für eine Krebstherapie oder die Entwicklung eines Medikamentes. Über die Jahre habe ich einige Muster erkannt über den Unterschied zwischen erfolgreichen Entscheidungen anhand von Daten und nicht erfolgreichen Entscheidungen. Dieses Muster sollte verbreitet werden. Müssen Sie je ein komplexes Problem lösen, tun Sie hauptsächlich zwei Dinge: Als Erstes zerlegen Sie dieses Problem in seine Einzelteile, sodass Sie die Einzelteile analysieren können; als Zweites setzen Sie die Einzelteile wieder zusammen, um einen Entschluss zu fassen. Manchmal müssen Sie dies mehrmals tun, aber es sind immer zwei Dinge: auseinander nehmen und wieder zusammensetzen. Und nun das Wichtigste: Daten und Datenanalyse sind nur gut für den ersten Teil. Daten und Datenanalyse, egal wie machtvoll, können nur dabei helfen, ein Problem zu zerlegen und seine Teile zu verstehen. Sie sind nicht dazu geeignet, die Teile wieder zusammenzusetzen und dann zu einem Entschluss zu kommen. Dafür gibt es ein anderes Werkzeug und wir besitzen es alle: unser Gehirn. Wenn es etwas gibt, bei dem das Gehirn gut ist, ist es Teile und Stücke wieder zusammenzusetzen, auch wenn die Informationen unvollständig sind, um dann einen guten Entschluss zu fassen -- besonders wenn es das Gehirn eines Experten ist. Darum, glaube ich, war Netflix so erfolgreich, weil sie Daten und Verstand genutzt haben, wo sie auch im Prozess hingehören. Sie nutzen Daten, um ihr Publikum besser zu verstehen, wozu sie sonst nicht fähig gewesen wären. Aber die Entscheidung, wie man all diese Teile nehmen, wieder zusammensetzen und daraus eine Show wie "House of Cards" macht, das stand nicht in den Daten. Ted Sarandos und sein Team trafen diese Entscheidung für diese Show, was bedeutete, dass sie ein großes persönliches Risiko mit dieser Entscheidung eingingen. Amazon hingegen tat dies auf die falsche Weise. Sie nutzten Daten, um all ihre Entscheidungen zu steuern, zuerst als sie um TV-Ideen wetteiferten, dann als sie "Alpha House" als Show auswählten. Es war eine sichere Entscheidung, weil sie immer sagen konnten: "Das sagen uns die Daten." Es führte nicht zum gewünschten Ergebnis. Daten sind hilfreich für bessere Entscheidungen, aber ich glaube, dass Dinge schief laufen, wenn Daten anfangen unsere Entscheidungen zu steuern. Egal wie machtvoll sie sind, Daten sind nur ein Werkzeug, und um das nicht zu vergessen, ist dieses Gerät ziemlich nützlich. Vielen von Ihnen werden ... Bevor es Daten gab, war dies das Gerät für Entscheidungen. Viele kennen es. Es wird auch "Magic 8 Ball" genannt. Es ist erstaunlich. Für Entscheidungen mithilfe einer Ja- oder Nein-Frage müssen Sie nur den Ball schütteln, um eine Antwort zu bekommen. "Höchst wahrscheinlich" -- genau hier in diesem Moment. Ich werde es später mit einer Technikdemo ausfechten. Ich habe bisher einige Entscheidungen in meinem Leben getroffen, wobei ich im Nachhinein auf den Ball hätte hören sollen. Aber, wie Sie natürlich wissen, wenn Sie die Daten verfügbar haben, möchten Sie diese durch etwas viel Ausgeklügelteres ersetzen, wie Datenanalyse, um bessere Entscheidungen zu treffen. Aber dies verändert nicht den Grundaufbau. So wird vielleicht der Ball klüger und klüger und klüger. Letztendlich liegt es an uns, Entscheidungen zu treffen, wenn wir etwas außergewöhnliches am Ende der rechten Kurve erreichen wollen. Und ich empfinde dies als sehr ermutigende Nachricht, dass es sich trotz der großen Menge an Daten immer noch auszahlt, Entscheidungen zu treffen, ein Experte in dem zu sein, was man tut, und Risiken einzugehen. Denn am Ende sind es nicht die Daten, sondern die Risiken, mit denen Sie am rechten Ende der Kurve landen. Danke schön.