Schlagwort-Archiv: Schrift

Über Bücher aus Papier und EBooks aus digitalen Zeichen – Vermarktung und Infrastruktur

Bücher aus Papier sind in sich geschlossene, analoge Einheiten. Der Datenträger Papier wird einmal bedruckt und dann kann, genügend Licht vorausgesetzt, der Text unbegrenzt häufig gelesen werden, es können Anstreichungen hinzugefügt, Anmerkungen notiert werden. Den Datenträger kann man als Ganzheit weitergeben, also auch verleihen oder verschenken. Die Lesespuren bleiben dabei erhalten. Die Haltbarkeit des Datenträgers – und somit der mit ihm fest verbundenen Information – beläuft sich auf einige Jahrzehnte bei schlechter Papierqualität bis hin zu mehreren Jahrhunderten bei guter Papierqualität, das Papier nicht zerstörender Tinte und trockener sowie lichtgeschützter Lagerung.

EBooks bestehen aus digitalen Zeichen in elektrischer Form, die als reine Datenpakete zunächst einmal nicht gelesen werden können. Anders als Bücher aus Papier werden EBooks ohne einen Datenträger ausgeliefert, an den das jeweilige „Exemplar“ gebunden wäre. Als Datenträger und Übersetzer in lesbare Schrift bedarf es entsprechender Programme, die entweder als Einzelprogramme vorliegen, die dann als App zum Beispiel auf einem Tablet oder dem Smartphone das Lesen erlauben, oder als eine Koppelung von Hard- und Software in Form eines speziell zum Lesen dieser Bücher gedachten EBook-Lesegerätes (EBook-Readers).

Weiterlesen

Handschrift und Tastaturen. Ein subjektiver „Test“-Bericht

Tablet-Tastaturen, wie der des Samsung Galaxy oder des Apple iPad, wird oft nachgesagt, dass man nicht so schnell auf ihnen tippen könne, wie auf einer „echten“ Computertastatur

Das stimmt.

Mir geht es auch so: Während ich mit mechanisch gelagerten Tasten blind und sehr schnell schreiben kann, ist das Tempo auf der virtuellen Tastatur, die ich zugegebenermaßen mittlerweile auch fast blind bedienen kann, deutlich langsamer. – In Berichten über Tablets liest sich der Teil über die Bedienungsfreundlichkeit der Tastatur für mich allerdings immer so erschreckend, da ich diese Kritik nur in Teilen nachvollziehen kann

Ja, das Tippen auf dem iPad, ein solches Tablet nutze ich, ist anders und gemächlicher als auf der Tastatur.  Manchmal, wenn ich das mit der Tastatur erreichbare Schreibtempo brauche, nutze ich dann auch mit dem Tablet eine Bluetooth-Tastatur. Das kommt allerdings für mich selbst erstaunlich selten vor. — So kurios es angesichts der weit verbreiteten Kritik gegenüber virtuellen Tastaturen auch klingen mag: In der Regel genügt die virtuelle Tastatur meinen Ansprüchen, sie hat sogar manchmal einen Mehrwert, sodass ich auf sie zurückgreife, auch wenn eine „normale“ Tastatur griffbereit und der Computer im Schlafmodus auf dem Schreibtisch in unmittelbarer Nähe verfügbar ist.

Irgendwann fragte ich mich, warum das so ist. Lange brauchte ich nicht, um eine Antwort zu finden: Das iPad und seine Tastatur stehen für mich genau zwischen der von mir sehr geschätzten und eher langsamen Handschrift und dem mir manchmal zu zügig von der Hand gehendem Tippen am Computer.

Am Tablet tippe ich zügig, aber so „langsam“, dass meine Gedanken sich beim Schreiben im Fluss bleibend dennoch bereits beim Schreiben ganz gut organisieren können. Ich kann quasi beim Formulieren am Tablet jeden Satz schon einer kleinen Überarbeitung unterziehen, während die Handschrift mich da zum Teil den Faden verlieren lässt und die „normale Tastatur“ zu einem Schreiben verführt, dem die Gedanken manches Mal fast schon hinterher eilen.

Und so fällt mir auf, dass ich in letzter Zeit überraschend viele Blog-Beiträge mit dem Tablet geschrieben habe. Das gilt auch für diesen.

Genau genommen muss ich es anders sagen: Überaschend viele Blogartikel sind in letzter Zeit – bis hin zur direkten Übernahme – aus Notizen entstanden, die ich im Laufe der Zeit in meinem digitalen Notizbuch auf dem Tablet eigentlich zunächst nur einzig und alleine für mich selbst verfasst habe.

Dass das so möglich ist, mag allerdings tatsächlich daran liegen, dass mir die virtuelle Tastatur von Anfang an gelegen hat. Ich mag dieses nahezu geräuschlose Erstellen von Texten, das an nahezu jedem Ort möglich ist. Das ist auch der Grund, warum sich die Menge des Geschriebenen für mich seit der Anschaffung des Tablets deutlich erhöht hat: Ich habe plötzlich die Möglichkeit, an viel mehr Orten zu schreiben, als dies vorher für mich möglich war.

Darüber hinaus nutze ich in bestimmten Situationen die Spracherkennungssoftware, die das Diktieren von Texten auf dem Tablet oder dem PC möglich macht. Diese Option kann ich natürlich nur dann nutzen, wenn niemand durch mein Sprechen gestört wird. Aber in Kombination mit der Tablet-Tastatur ist dies durchaus eine Erleichterung.

So ist beispielsweise der letzte Absatz diktiert worden, während der gesamte restliche Text bis an diese Stelle in weniger als einer halben Stunde auf der virtuellen Tastatur eines iPads entstanden ist.

Idealerweise komme ich beim Tippen in meinen eigenen Rhythmus, der dann für das Entstehen eines Textes durchgehalten wird, sodass mir das Tippen manchmal wie das Bedienen eines Tastenintrumentes vorkommt.

Doch all dies ist, dessen bin ich mir sehr bewusst, eine subjektive Erfahrung des Umgangs mit unterschiedlichen Formen von Tastaturen. Ich will dabei auch nur sehr eingeschränkt werten, indem ich meine Erfahrung darlege, wie ich die unterschiedlichen Formen der Erstellung von Text für mich nutze.

Handschrift nutze ich, wenn flexibel Text und grafische Elemente miteinander kombiniert werden (müssen). Aber auch, wenn ich ein langsames Schreiben mit deutlich persönlicher Note pflegen will, wie es bespielsweise in handschriftlichen Briefen erreicht werden soll / wird.

Die „normale Tastatur“ am Computer nutze ich besonders gerne, wenn ich sehr schnell und eher assoziativ schreiben will oder an einem Thema arbeite, das ich in Form eines freien Vortrages schon gut meistern kann und entsprechend zügig dem inneren Sprachfluss folgen will.

Bei bestimmten Übungen des Kreativen Schreibens kommt mir das Gefühl mechanisch-digital arbeitender Tastaturen sehr entgegen, wenn es darum geht, so schnell zu schreiben, dass sich der Schreibfluss in gewissem Grade dem Reflexionsprozess entzieht und so auch überraschende Wendungen nehmen kann (Stichwort: écriture automatique – automatisches Schreiben).

Das Schreiben auf der virtuellen Tastatur eines Tablets liegt für mich zwischen der Handschriflichkeit und der „normalen Tastatur“. Das Ergebnis ist ein typografisches; der Schreibprozess liegt in seiner Zeitaufwändigkeit für mich zwischen der Handschrift und dem schnellen Tippen, so, dass das Tempo des Schreibens und die Möglichkeit der potentiellen Weiterverwertung eines Textes einen Kompromiss darstellen: Schriebe ich alleine per Hand, wären verwertbare Artikel abzuschreiben und kämen so auch noch in den immer wünschenswerten Überarbeitungsprozess; tippe ich schnell auf der „normalen Tastatur“, so ist oft vor der Veröffentlichung der so entstehenden verwertbaren Texten noch eine intensive Überarbeitung notwendig.

Mit dem Tablet geschriebene Texte liegen für mich zwischen diesen beiden Optionen: Sie brauchen in der Entstehung etwas mehr Zeit als schnell getippte Texte, müssen in der Regel aber weniger überarbeitet werden als diese; sie entstehen schneller als rein handschriftlich verfasste Texte und die Zeit der Überarbeitung ist kürzer als die für das Abtippen handschriftlicher Texte benötigte. Gleichzeitig aber ist das Tippen auf der virtuellen Tastatur so, dass sich für mich im Arbeitsprozess selbst bereits eine „Überarbeitung“ der Texte ergibt, weil ich Worte oder grammatikalische Konstrukte ebenso während dem Schreiben überdenken kann, wie eine ganze Argumentationsstruktur, was ich sonst eher vom handschriftlichen Arbeiten her kenne.

Und somit greifen für mich Praxisberichte über die Arbeit mit virtuellen Tastaturen zu kurz. Gut, ich halte mich für jemanden, der sehr gut mit Tastaturen arbeiten kann und diese ganz gut beherrscht. Aber ich traue dieses Maß an Freude beim Umgang mit Tastaturen auch vielen anderen zu. Testberichte zu Tastaturen, wie der hier von mir benutzten virtuellen auf dem iPad, gehen oft von absoluten Werten bezüglich der Schreibgeschwindigkeit aus. Dabei werden relative Werte, wie zum Beispiel der Nutzen einer geringeren Schreibgeschwindigkeit für die Textqualität, außen vor gelassen.

Ich ziehe es vor, mir Gedanken über die Qualität von Texten zu machen, die ich mit unterschiedlichen Schreibinstrumenten erreichen kann. Und wenn ich dieses Kriterium heran ziehe, dann steht die virtuelle Tastatur mit geringem Überarbeitungsaufwand bei den so entstehenden Texten auf Platz 1.

Subjektiv ist das Schreiben auf der „echten“ halb-mechanischen Tastatur deutlich schneller, wobei der Überarbeitungsaufwand für mich den Geschwindigkeitsvorteil im Vergleich zur virtuellen Tablet-Tastatur locker ausgleicht.

Die Handschrift ist für mich vor allem aufgrund des mit ihr verbundenen körperlichen Prozesses der rhythmisch runden Bewegungsabläufe attraktiv. Handschriftlich kann ich stromunabhänig viel und kontinuierlich schreiben. Um einen Text wie diesen allerdings zur Veröffentlichung fertig zu stellen, benötigte ich das zwei- bis dreifache an Zeit, was die gefühlte Hochwertigkeit der Handschrift dann in einen objektiven „Kosten-Nutzen-Konflikt“ bringt.

Ja, all diese Tests von Tablets mit virtuellen Tastaturen haben recht, wenn sie diese im Vergleich zu „normalen Tastaturen“ als schwächer ansehen. Mit der Handschriftlichkeit vergleichen solche Tests die Tastauren hingegen nicht, obwohl sie in diesem Lichte plötzlich viel positiver betrachtet werden könnten.

Deshalb will ich hier mit diesem durchaus sehr subjektiven Beitrag die Perspektive auf virtuelle Tastaturen erweitern, denn immer dann, wenn davon gesprochen wird, dass diese nicht an „normale Tastaturen“ heran reichten, zuckte ich bislang zusammen und dachte mir, dass doch genau dies einer der Gründe ist, warum ich Texte wie diesen so gerne mit dem Tablet schreibe. Und jetzt ist es für mich an der Zeit, das auch einmal öffentlich zu formulieren. Aber das weiß ich erst jetzt, denn ursprünglich ist dieser Text in meinem Notizbuch entstanden, dessen Texte eben nur dann und wann zur Veröffentlichung gelangen. – Seit ich das Notizbuch allerdings fast ausschließlich auf dem Tablet Pflege, fällt mir auf, dass die Zahl in ihm entstehenden Texte, die anschließend in irgend einer Form, meist allerdings in meinem Blog, veröffentlicht werden, doch deutlich zugenommen hat. – Ich führe das auf die  in diesem Beitrag hoffentlich nachvollziehbar gemachten, von mir zumindest subjektiv empfundenen Eigenschaften des Schreibens auf einer virtuellen Tastatur zurück.

Schule „muss“ sich nicht verändern; sie tut es einfach. Eine Provokation.

Als ich gerade in die Oberstufe gekommen war, wollte ich unbedingt dieses vierundzwanzig Bände umfassende Lexikon im Taschenbuchformat haben.

Als ich es dann hatte, kamen in besonders ereignisreichen Jahren Einzelbände dazu, die die Informationen im Lexikon aktualisierten. 

Mir kam dieser Regalmeter an Wissen damals so vor, als ob es unmöglich sei, noch viel mehr zu wissen oder in noch kompakterer Form, Wissen zugänglich zu machen. 

In der gleichen Zeit war ich zutiefst davon beeindruckt, dass Briefe an und von einem Brieffreund in Singapur in der Regel nur zwei Werktage unterwegs waren, bis sie ankamen und eine mir völlig unbekannte Welt ins Haus brachten. 

Es gab für solche Brieffreundschaften Vermittlungsagenturen, die damals bei uns Jugendlichen recht beliebt waren, konnte man auf dem Wege über eine Brieffreundschaften doch Fremdsprachenkenntnissen so etwas wie Praxisrelevanz abtrotzen. 

Das Lexikon steht noch immer in meinem Regal, aber weniger, weil ich davon einen Nutzen habe, sondern eher als eine Art „romantische“ Erinnerung an Zeiten, die gar nicht lange her sind, dafür aber sehr schnell vergangen sind. 

Das Wissen der Welt steht heute tagesaktuell via Internet zur Verfügung. 

Das Internet und Computer machen Englischkenntnisse unmittelbar praxisrelevant. Freundschaften auf Distanz werden heute via Facebook und Skype gepflegt. 

Was einst ein für mich mit schier unvorstellbaren Wissensmengen gefüllter Regalmeter war, neben dem einige Zeit später noch alle damals unter dem Label „Duden“ verfügbaren Wörterbücher, zehn an der Zahl, einzogen und so auch umfassendes Sprachwissen für mich greifbar machten, kommt mir heute so vor, als seien es letztlich doch sehr bescheidene Wissensmengen gewesen. Und der Regalmeter mit gewichtigen Büchern reicht nicht im mindesten an das verfügbare Wissen in meiner Hosentasche heran, das ich immer bei mir trage.

Neben Lexikon und Wörterbüchern habe ich eine über hundert Bände umfassende Klassikerbibliothek, die in Druckform einige Umzugskisten benötigte, um transportiert werden zu können, in der Hosentasche. Das Smartphone macht es möglich.

Außerdem trage ich eine vollwertige Schreibmaschine mit mir herum, die kleiner als ein Collegeblock ist, die mir komfortablen Internetzugang erlaubt, mit der ich mit anderen Menschen kommunizieren kann.

Fotoapparat, die Möglichkeit, hochwertige Videos anzufertigen und sogar zu schneiden, ein Audiorekorder, einen Scanner mit OCR, eine vollständige Fahrplanauskunft (früher war dazu ein dickes „Kursbuch“ nötig), eine Sammlung historischen Kartenmaterials, eine mehrere hundert „Platten“ umfassende Musiksammlung etc. führe ich ständig in der Hosentasche mit mir herum.

Das alles kam mir in den Sinn, als ich über die mir kürzlich gestellte Frage nachdachte, ob Schule sich nicht verändern müsse. 

Je mehr ich über diese Frage nachdenke, deren Zielrichtung ich natürlich verstehe (zu verstehen meine), um so sinnloser, an der eigentlich zu stellenden Frage vorbei gestellt erscheint sie mir. 

Schule „muss“ sich nicht verändern. Das muss man nicht fordern, als ein „Muss“ in den Raum projizieren. Schule tut das einfach. Schule verändert sich. Schule ist längst vom informationstechnologischen Wandel durchdrungen und geprägt – auch dort, wo die Veränderungsresitenzen von Lehrenden noch versuchen, „alte Selbstverständlichkeiten“ gegen den „Angriff“ aus der Welt des Internets und des Hosentaschenwissens am Leben zu erhalten. 

Wenn dann Lehrer und Lehrerinnen im Lehrerzimmer „ihre Klausuren von vor ein paar Jahre, die sie bislang problemlos immer wieder verwenden konnten, die jetzt aber im Internet kursieren und die sie deshalb nicht mehr verwenden können“ hochhalten, die sie bei Schülern gefunden haben, während diese Arbeit wieder einmal geschrieben wurde, so ist das ein fast tragikomischer Anblick.

Wenn Schülern und Schülerinnen der Gebrauch mobiler Endgeräte mit Internetzugang verboten wird, wirkt das zunehmend so, als würde man die Nutzung von Wörterbüchern verbieten. 

Nein, Schulen sehen sich keinem „Muss“ zur Veränderung ausgesetzt. Schulen verändern sich parallel zum Leitmedienwechsel von alleine, organisch, egal ob Lehrer, Eltern, Schulträger, Kultusbehörden,  Schulbuchverlage etc. sich gegen das „Wuchern dieses digitalen Unkrauts“ wehren oder ob sie sich auf den Medienwandel in der Wissensgesellschaft einlassen und Schüler dabei unterstützen, mündige Bürgern in dieser Wissensgesellschaft zu werden. 

Weg also mit dem „Muss“, wenn es um Fragen der Veränderung von Schule geht. 

An die Stelle dieses „Muss“ sollte man die Forderung nach Professionalität im Umgang mit diesem Leitmedienwechsel setzen und diese Professionalität gleichzeitig einfordern.

Es ist nicht die Aufgabe von Lehrern, den Leitmedienwechsel (immer noch) zu verteufeln oder einfach zu ignorieren. 

Es ist Aufgabe von Lehrern, kompetent mit dem Leitmedienwechsel umzugehen, theoretisches und Anwendungswissen zu erwerben, um den Möglichkeiten und Chancen des Leitmedienwechsels auch reflektierend begegnen zu können. 

Natürlich ist das mit Arbeit verbunden, aber als Fachlehrer kann man sich zum Beispiel in den Naturwissenschaften neuen fachlichen Erkenntnissen auch nicht verweigern, wenn man den eigenen Beruf wirklich ernst nimmt. 

Es ist nicht so, dass man sich zurücklehnen und entscheiden kann, ob einen als Lehrer dieser Leitmedienwechsel betrifft oder nicht, ob man diesem gegenüber Kompetenzen erwerben möchte oder nicht. Diese Entscheidung mag mir als Privatperson möglich sein; will ich meinem Erziehungsauftrag angemessen nachkommen, muss ich zum kompetenten Umgang mit dem Leitmedium in der Lage sein. 

Ich kann mich als Lehrer ja auch nicht weigern, Bücher oder Fachzeitschriften in die Hand zu nehmen, wenn ich den Beruf ernst nehme. 

Ich stelle mir vor, Automechaniker verhielten sich wie manche Lehrer, sie würden sich weigern, von ihren mechanischen Reparaturkompetenzen auf Mechatronik umzustellen, sie würden sich weigern, den Umgang mit Computern zu erlernen, um Fehleranalysen an der Bordelektronik eines Autos durchführen zu können: Wenn ein solcher Automechaniker nicht gerade in einer Werkstatt arbeitet, die sich auf Oldtimer spezialisiert hat, würde er seinen Beruf verlieren. 

Ich hielte es für keinen Eingriff in die gesetzlich verankerte pädagogische Freiheit von Lehrerinnen und Lehrern, würde eine Dienstanweisung ergehen, in der klar definiert ist, welche Kompetenzen der Leitmedienwechsel von Lehrenden fordert, damit dieser kompetent reflektiert und auch praktisch fruchtbar gemacht werden kann. Diese Dienstanweisung dürfte freilich nur von Leuten erarbeitet werden, denen man genügend Wissen und Fähigkeiten zutraut, dies angemessen zu tun, also nicht von Politikern, die sich E-Mails nach wie vor ausdrucken lassen ;-)

Ich hielte es für keinen Eingriff in die gesetzlich verankerte pädagogische Freiheit von Lehrerinnen und Lehrern, bekäme jede und jeder eine Dienstemailadresse, die verpflichtend mind. an den Tagen abzurufen wäre, an denen die Kollegen in der Schule sind, wo Dienstrechner verfügbar sind. 

Solange es aber nicht als seltsam angesehen wird, dass Lehrer und Lehrerinnen sich teilweise dem Leitmedienwechsel offensiv verweigern, solange nicht verbindlich eingefordert wird, dass Medienkompetenz ebenso wie Sprach- und Schreibkompetenz in allen Fächern zu fördern ist, solange wird sich Schule weiter verändern, worauf Lehrer weiter mit Restriktionen reagieren werden, um den StatusQuo zu bewahren, um die Veränderungen vielleicht doch noch zu verhindern, wodurch die Atmosphäre in den Schulen zunehmend von dem nicht reflektierten Konflikt zwischen „digitalen Selbstverständlichkeiten“ im außerschulischen Alltag und der vor diesem Alltag „geschützten“ Schule geprägt wird.

Der Leitmedienwechsel wird zu einer neuen Lernkultur führen.

Die sich mit ihm ergebenden Möglichkeiten und Risiken wollen reflektiert Einzug in die Schulwirklichkeit finden. 

Um diesen reflektierten Umgang mit dem Leitmedienwechsel leisten zu können, müssen Lehrer und Lehrerinnen lernen. 

Ja, das ist mit Arbeit verbunden. Aber diese Arbeit ist nicht zu vermeiden, soll sich in der Schule nicht ein Dauerkonflikt zwischen „digitalen Selbstverständlichkeiten“ (das Vorhandensein einer dienstlichen  E-Mail-Adresse ist eine solche, der gemeinfreie Klassiker auf dem E-Book-Reader bzw. dem Smartphone oder dem Tablet ist gerade dabei eine solche zu werden) und analoger Beharrlichkeit festsetzen, der dem Auftrag der Schule und somit der Pädagogen in der Schule zuwider liefe.

Schule „muss“ sich nicht verändern; Schule verändert sich angesichts des Leitmedienwechsels einfach; sie tut das einfach, völlig ohne „Muss“. 

Die Frage lautet also, wie sehr die an der Gestaltung von Schule beteiligten Professionellen professionell in der Lage sind, diese Veränderungen wahrzunehmen, zu beschreiben, zu reflektieren und dann in die Didaktik und Methodik der Fächer zu integrieren. 

Das ist für alle Beteiligten eine Herausforderung. Und deshalb muss die Herausforderung noch umfassender beschrieben werden: Wie sehr sind Politik und gesamtgesellschaftliche Stimmungen bereit und in der Lage, den an der Gestaltung von Schule beteiligten Professionellen professionelle Fortbildungsmöglichkeiten zu geben, die keine Zusatzbelastungen sind, sondern durch Entlastungen an anderen Stellen eigentlich erst erwartbar und möglich werden. 

Solange dies nicht geschieht, ist freilich nicht unbedingt zu erwarten, dass Lehrer und Lehrerinnen die Kraft, Energie und Bereitschaft aufbringen (können), sich den faktischen Veränderungen von Schule im digitalen Kontext zu stellen; solange ist es durchaus nachvollziehbar, dass vielen Lehrer und Lehrerinnen der an „analogen Selbstverständlichkeiten“ orientierte Schulalltag der „sicherere Grund“ zu sein scheint, auf dem sie agieren können. 

Doch von all dem unabhängig: Schule verändert sich; Schule hat sich angesichts neuer „digitaler Selbstverständlichkeiten“ längst verändert. 

Es ist Zeit, diese Veränderungen reflexiv und praktisch  einzuholen.

Gedichtinterpretation: Goethe – ein jugendgefährdender Autor

Creative Commons Lizenzvertrag
Gedichtinterpretation: Goethe – ein jugendgefährdender Autor von Torsten Larbig steht unter einer Creative Commons Namensnennung-Nicht-kommerziell-Weitergabe unter gleichen Bedingungen 3.0 Deutschland Lizenz.

 

Johann Wolfgang Goethe (1815)

Trunken müssen wir alle sein!

Jugend ist Trunkenheit ohne Wein;

Trinkt sich das Alter wieder zu Jugend,

so ist es wundervolle Tugend.

Für Sorgen sorgt das liebe Leben,

und Sorgenbrecher sind die Reben.

 

Goethe – ein jugendgefährdender Autor?

Im „Faust“ werden Geister beschworen, Drogen konsumiert, Personen direkt oder indirekt dem Tode übereignet; im ,,Heidenröslein“ lesen viele Interpretationen die Darstellung einer Vergewaltigung und im „West-östlichen Divan“ gibt es das „Schenkenbuch“ Weiterlesen

Das Tippen, der Text und die Schreibkompetenz

Die Bedeutung der Handschrift geht mehr und mehr zurück, ohne dass dies bedeuten würde, dass sie als grundlegende Kulturtechnik nicht dennoch erlernt werden müsste, schon alleine um die Möglichkeit zu erhalten, auch stromunabhängig eine individuelle Ausdrucksform zu ermöglichen, da die Zahl der analogen, rein mechanischen Schreibmaschinen in den Haushalten wohl nicht ausreichen wird, um diese Form des Ausdrucks sicher zu stellen, während zum Beispiel Kugelschreiber nach wie vor ein Alltagsgegenstand sind. Ich wage die Behauptung, dass bei Kugelschreibern eine hundertprozentige Abdeckung in der Bevölkerung vorhanden ist.

Doch wenn auch die Bedeutung der Handschrift zurück zu gehen scheint, hat das Tippen von Texten weit weniger Aufmerksamkeit auf seiner Seite, als angemessen scheint. Das gilt nicht nur für Schülerinnen und Schüler, sondern auch für viele Lehrende. Sowohl unter Schülern der gymnasialen Oberstufe also auch bei vielen Lehrenden scheint zum Beispiel die Fähigkeit, blind und womöglich sogar mit zehn Fingern zu tippen, nach wie vor eher ein Nerdfaktor als Allgemeingut, von angemessenen Kenntnissen in Sachen Textsatz einmal abgesehen, obwohl diese, zumindest meines Erachtens, grundlegend zum kompetenten Umgang mit Textverarbeitungsprogrammen dazu gehören, sind diese doch etwas anderes als digitale Umsetzungen mechanischer Schreibmaschinen, die in Sachen Textsatz (Typographie) keine allzu großen Möglichkeiten ließen.

Doch selbst in Lehrplänen, die die Verwendung von Textverarbeitungsprogrammen zumindest als Möglichkeit in sich bergen, habe ich bislang nichts von der Vorgabe gelesen, dass jeder Schüler und jede Schülerin in der Lage sein soll, blind zu tippen; unabhängig von der Schulform übrigens.

Ja, diese Kompetenz wurde auch schon bisher eher in speziellen Kursen gelernt oder sie war das Produkt selbstständiger Bemühungen. Ich habe nie einen Kurs für Tastaturschreiben besucht und meine es dennoch angemessen zu beherrschen. Sehe ich aber, welche Probleme im Umgang mit Computertastaturen damit einher gehen, dass die entsprechenden Nutzer und Nutzerinnen eher unvertraut mit der Tastatur und auch mit Tastaturbefehlen umgehen, bekomme ich immer wieder den Eindruck, dass außerhalb von Sekretariaten unglaublich viel Energie durch den Mangel an dieser Kompetenz verloren geht.

Der zentrale Vorteil des Tippens, ein relativ schnelles Schreiben zu ermöglichen, wird in vielen Fällen, auch bei Lehrenden, eher stiefmütterlich behandelt. Oft wird dann von der Kompliziertheit des Computereinsatzes gesprochen, aber kaum in Erwägung gezogen, dass die eigenen praktischen Kenntnisse im Bereich dieser (neuen) Kulturtechnik möglicherweise einer Optimierung unterzogen werden könnten.

Mir persönlich ist es dann übrigens egal, ob »korrekt« mit zehn Fingern getippt wird, solange das Tippen seine Überlegenheit in Sachen Schreibgeschwindigkeit irgendwie ausspielen kann, habe ich doch einst selbst lange Zeit mit zwei Fingern getippt, wenn auch schon relativ zuverlässig.

Doch die Frage der Kompetenz in Sachen Nutzung von Tastaturen ist nur eine Seite des Problems — und vielleicht nicht einmal die bedeutendste. Das größere Problem scheint mir, dass kaum reflektiert wird, dass ein getippter Text nicht nur geschrieben sondern auch angemessen gestaltet sein will. Diese Kompetenz nennt man »Textsatz« oder »Typographie«.

Auf den Buchdruck zurückgehend, war der Beruf des Setzers lange Zeit ein wichtiger Beruf, der aber mit Textverarbeitungsprogrammen ein wenig ins Hintertreffen geraten ist, weil mehr und mehr selbst Verlage von den Autoren oder Herausgebern erwarten, dass diese druckfertige Typoskripte abgeben. Vor allem wissenschaftliche Publikationen sehen dann auch oft entsprechend aus.

Neben der Frage der für das Erstellen von Texten notwendigen Schreibkompetenzen tritt heute die Frage nach der Gestaltung von selbst erstellten Texten, die Frage nach dem Layout. Ja, Layouter stellen durchaus nach wie vor eine eigene Berufsgruppe dar, die aber aus den genannten Gründen, die heute eigentlich von jedem am Computer schreibenden Menschen entsprechende Kenntnisse und Kompetenzen erwarten, an praktischer Bedeutung verliert.

Solange selbst auf den Websites vieler großer Zeitungen die Grundregeln des Textsatzes eher stiefmütterlich behandelt werden, ich denke hier insbesondere an den oft schlicht falschen Gebrauch von Anführungszeichen, die oft angelsächsischen Vorgaben folgen, statt den Standards deutscher Sprache entsprechend gesetzt werden, ist an dieser Stelle mit einer auf Unkenntnis beruhenden Wandlung der geschriebenen Sprache zu rechnen.

Zugegeben: Schlechte Typographie und der oft fast schon hilflos wirkende Umgang mit Tastaturen werden keine Untergang des Abendlandes verursachen. Viele Eigenarten, die dem geschulten Auge in Sachen Typographie auffallen, mögen vielen Menschen eher kleinlich erscheinen. Es handelt sich hier eher um eine ästhetische Frage, der sich zu stellen aber gerade Bildungsinstitutionen nicht schlecht stehen würde.

Ökonomisch relevanter ist da schon die Frage, wie sicher der Umgang von Beschäftigten mit der Tastatur als Schreibinstrument ist. Auch hier gibt es nach meinen Beobachtungen massiven Kompetenzentwicklungsbedarf. Aber wer den Weg des Blindschreibens einmal eingeschlagen hat, wird schnell merken, dass es sich dabei um kein Spiel handelt, sondern um eine Fähigkeit, die das Schreiben als solches einfach viel angenehmer macht. Und alleine dafür lohnt es sich meines Erachtens, diesen Weg zu betreten und das Tippen neben der Handschriftlichkeit zu üben.

Binäre Codes und die Bildung der Zukunft: Eine Replik zu Schirrmachers „Payback“

Was mich angeht, so muss ich bekennen, dass ich nicht bereit bin, meine geistigen Fähigkeiten von außen kommenden Informationsfluten unterzuordnen.

Ich reguliere den Zufluss an E-Mails, pflege regelmäßig meine Follower-Liste auf Twitter, indem ich jeden „Marketingexperten“, „Haben Sie Erfolg im Web“ und sonstigen selbst ernannten Guru, der mir folgt, lösche, auch wenn ich gar nicht gezwungen bin, ihm auch zu folgen. SMS setze ich sparsam ein, Feeds laufen nicht mehr als 100 pro Tag ein, von denen ich mir vielleicht 10 näher anschaue und die Texte lese. Facebook war ein kurzes Intermezzo, da es gegenüber Twitter für mich keinen Mehrwert brachte und mich zudem mit seinem Verständnis von „Datenschutz“ in Rage brachte. Ich habe diesen Verzicht und die Reduktion der Informationsflüsse, die täglich bei mir ankommen noch keinen Tag bereut.  – Wie einst die Flüsse reguliert wurden, um Hochwasser zu vermeiden, habe ich mich frühzeitig entschlossen, den Informationsfluss zu regulieren, auf dass er mich nicht überschwemmen möge.

Und dennoch: Ohne Computer kann ich mir weder die Kommunikation mit anderen Menschen noch meine alltägliche Arbeit mehr vorstellen. Ohne Suchmaschinen, es muss ja nicht immer Google sein, würde ich mich wahrscheinlich neu orientieren müssen, bin aber guter Dinge, dass dies gelingen könnte, denn ich gehöre noch zu denen, die einen Zettelkastenkatalog in Bibliotheken zu nutzen gelernt haben.

Und dabei bin ich viel jünger als Frank Schirrmacher, dem die Navigation in digitalen Welten zumindest ansatzweise eine Überforderung zu sein scheint. So zumindest mein Eindruck beim Lesen seines Buches „Payback. Warum wir im Informationszeitalter gezwungen sind zu tun, was wir nicht wollen, und wie wir die Kontrolle über unsere Daten zurückgewinnen“. Schirrmacher schreibt: „Ich werde [von der Masse digital eingehender Daten TL] aufgefressen“ (S. 15), auch wenn er seinen digitalen Bankrott noch nicht erklärt.

„Die digitale Gesellschaft ist im Begriff, ihr Innenleben umzuprogrammieren. Auf der ganzen Welt haben Computer damit begonnen, ihre Intelligenz zusammenzulegen und ihre inneren Zustände auszutauschen; und seit ein paar Jahren sind die Menschen ihnen auf diesem Weg gefolgt. Solange sie sich von Maschinen treiben lassen, werden sie hoffnungslos unterlegen sein”, so Schirrmacher (S. 20), der die Angst, etwas zu verpassen, als eine der treibenden Kräfte bei diesem Prozess sieht.

Und ähnlich, wie sich einst Platon1 beklagte, dass die Schrift das Gedächtnis schwäche, da sie externe Gedächtnisse ermögliche, stellt Schirrmacher nun fest, freilich ohne auf die lange Geschichte dieses kulturkritischen Topos zu verweisen, dass nun das Denken buchstäblich nach außen wandere, unser Inneres verlasse und sich auf digitalen Plattformen abspiele. – Dennoch geht Schirrmacher nicht so weit, die Chancen der neuen (übrigens von Menschen gemachten) Gegebenheiten zu verneinen, auch wenn ihm deutlich eine große Skepsis gegenüber als notwendiges Übel empfundenen digitalen Kommunikationstechnologien anzumerken ist.

Schirrmachers These ist dabei so zutreffend und wie auch wenig neu, wenn er von einer kognitiven Wende der Menschheit spricht, in deren Zentrum eine veränderte Struktur des Gehirns stehen könnte. Fast will ich antworten: Natürlich verändert der Code, den wir als Mittel unserer Kommunikation verwenden, unser Denken, ja, unser gesamtes Weltbild. Wie wäre sonst das westlich-lineare Weltbild denkbar, wenn nicht auf der Basis eines Buchstaben-Codes, auf Grundlage des Alphabets, dass diese Form des linearen Verständnisses von Wirklichkeit überhaupt erst in unsere Gehirne gebracht hat. Für jeden, der den Übergang zur Alphabetschrift reflektierend miterlebte, muss es ähnlich erschreckend gewesen sein, dass an die Stelle eines durch die Jahresrhythmen geprägten Denkens, dass sich in seiner zirkulären Strukturen in den östlichen Religionen bis heute zeugt, nun eine lineare Struktur trat. (Zu diesem Thema komme ich später noch einmal zurück.)2

Was passiert, wenn man Computer und Internet nicht nur als Werkzeuge sieht, sondern als »Psychotechnologien«3 versteht? Diese Annahme scheint mir so befremdlich nicht zu sein: Es ist nicht nur so, dass Software und die auf ihr beruhenden Anwendungen, zu denen auch all die Optionen im World-Wide-Web gehören, Arbeit abnimmt; sondern vielmehr wohl auch so, dass die Programme auch ihre Nutzer programmieren.

Die Form der Arbeit hat sich mit Computern und dem auf ihnen basierenden Internet völlig verändert und es ist heute schon kaum noch vorstellbar, wie man überhaupt je ohne diese Maschinen in der Lage gewesen sein kann, Texte zu schreiben, Wissenschaft zu betreiben und den Alltag zu bestehen.

Computer und (digitale) audio-visuelle Medien verändern das Individuum und die Gesellschaft in der heute beobachtbaren Intensität, weil es sich nicht um isolierte Maschinen, sondern um Netzwerke handelt.

Alte Medien verbinden sich auf der Basis eines neuen Codes; Text, Bild und Ton werden miteinander verbunden, »um – außerhalb der leiblichen Psyche der Bürger – eine elektronische Psyche zu implementieren, die uns künftig ein kollektives Parallelbewusstsein anbieten wird«4.

Auch wenn sich Schirrmacher nicht explizit auf theoretische Ansätze wie die Kerckhoves bezieht, sondern vor allem empirische Untersuchungen heranzieht und von diesen ausgehend seine Schlussfolgerungen zieht, so spricht die Empirie, zumindest in der Auswahl der Untersuchungen, die Schirrmacher auswertet, eine Sprache, die Kerckhoves medientheoretische Ansätze bestätigt.

Erste Auswirkungen der Programmierung menschlicher Psyche durch Programme könnten sich in den von Schirrmacher ausgewerteten Studien zeigen: Die Aufmerksamkeitsspannen, zu denen Menschen heute in der Lage sind, scheinen immer kürzer zu werden. Schon wenig komplexe Texte in gedruckter Form (und bei solchen in digitaler Form wird es nicht anders aussehen) überschreiten mit ihren Ansprüchen die den Sinn erfassenden Aufnahmekapazitäten, das „Aufmerksamkeits-Defizit-Syndrom“ ist ein verbreitetes Krankheitsbild – nicht nur bei Kindern.

Schirrmachers Darstellungen von Beobachtungen und die Zusammenfassung der Ergebnisse von Studien entsprechen meinen eigenen Beobachtungen. Doch ist die gegenwärtige, digitale Form der Kommunikation schuld? Liegt die Verantwortung für diese Phänomene in einer Technologie, die im Internet ihren eigentlichen Ausdruck findet und als solche seit gerade 15 Jahren zu einem Massenphänomen geworden ist? Sind wir der von Kerckhove angenommenen Programmierung durch Programme quasi automatisch unterworfen oder können wir ihnen auf Dauer auch in reflexiver Distanz begegnen? – Diese Fragen können bislang nicht auf lange Sicht beantwortet werden.

Haben wir ein Problem, das durch digital vernetzte Medien erzeugt wird oder haben wir mit einem Problem zu tun, das mit einem unangemessenen Umgang mit diesen Medien zusammenhängt? Ist die gegenwärtige Aufmerksamkeitskrise schon das Endprodukt des medialen Wandels oder eine Zwischenstation im Prozess der Integration der neuen Informationsströme in unsere Denkstrukturen? – Wir wissen es nicht. Und weil wir es nicht wissen, sind Denkschriften wie die Schirrmachers und die reflexive Auseinandersetzung mit Stimmen wie seiner notwendig.

Wir brauchen den die medialen Veränderungen begleitenden Denkprozess, die Zeiten und Räume, in denen wir Abstand von genutzten Alltagsmedien nehmen und uns den eigenen Umgang mit ihnen quasi „von außen“ betrachten.

Voraussetzung hierfür ist allerdings, dass Schirrmacher mit seiner These unrecht hat, dass das Abschalten der digitalen Kommunikationskanäle zu einer Angstreaktion führt, die von der Sorge geprägt ist, was man in diesen Zeiten offline alles verpassen könnte.

Dass es dieses Phänomen gibt, soll hier gar nicht bestritten werden. Aber wenn es dieses Phänomen gibt, dann ist mit ihm die Frage verbunden, ob und wie es möglich sein kann, diesem subjektiven Abhängigkeitsgefühl, das objektiv angesichts der Redundanz der im Netz anzutreffenden Informationen eigentlich keinen allzu großen Realitätsgehalt haben dürfte, etwas entgegen zu setzen, dass die (intellektuelle) Autonomie des Menschen ernst nimmt. Doch zu solchen Strategien später mehr. Nur soviel bereits an dieser Stelle: Wer die nicht zu bewältigenden Datenfluten vernetzter, digitaler Medien als Problem sieht, kann sich einmal die Frage stellen, wie viele neue und vor allem für einen selbst relevante Informationen wirklich auf diesen Kanälen fließen.

„Es ist also schwieriger geworden, ein Buch zu lesen, weil unser Gehirn sich unter dem Druck digitaler Informationsfluten umzubauen beginnt.” – Auch ich zweifle nicht daran, dass wir eine Umstrukturierung des neuronalen Systems im Gehirn erleben. Doch meine These sieht den Grund hierfür in der grundlegend neuen Form der diese Informationen transportierenden Codes, die zwar auf der Oberfläche noch wie Buchstaben aussehen, ihrem Verhalten nach aber ausschließlich aus den Zahlen 1 und O bestehen bzw. aus aktiven elektrischen Verbindungen und inaktiven elektrischen Verbindungen – und sich entsprechend verhalten, indem sie beispielsweise in Echtzeit von A nach B vermittelt werden können.5

Und doch kommt Schirrmacher zu einem mir nachvollziehbaren Schluss: „Wir sammeln heute unendliche Informationen. Aber sie führen uns nirgendwo mehr hin.” (S. 42) In diesem Schluss liegt aber auch die Begrenztheit des Ansatzes Schirrmachers, der sich – und das ist völlig legitim! – entschieden hat, die empirische Forschung in seinen Überlegungen zu berücksichtigen, darüber hinaus aber die medienphilosophischen Perspektiven (erst einmal?) außen vor zu lassen.

In diesem Vorgehen liegen Chancen und Grenzen: Die Chance besteht darin, dass hier Technikfolgenforschung in den Blick genommen wird, auch wenn die Folgen digital vernetzter Strukturen bislang mit dem Vorbehalt des bislang recht überschaubaren Zeitraums des Einsatzes dieser Technologien versehen werden müssen, was Schirrmacher auch betont. Die Grenzen des Ansatzes Schirrmachers liegen dort, wo er die philosophische Metareflexion der Grundlagen digital vernetzter Strukturen außen vor lässt und somit bei der Reflexion möglicher Konsequenzen aus den empirischen Beobachtungen eher (verhaltens-)psychologisch argumentiert, im Prinzip also einem behavioristischen Ansatz folgt. Für diese Annahme sprechen die Überschriften der zwei Teile des Buches: „Erster Teil: Warum wir tun, was wir nicht wollen”; „Zweiter Teil: Wie wir die Kontrolle über unser Denken zurückgewinnen können“ [Hervorhebungen TL].

Vor diesem Hintergrund ist es nicht verwunderlich, dass Schirrmacher seinen Lösungsvorschlag, ich beschränke mich hier einmal auf seinen Vorschlag bezüglich der Zukunft der Bildung (S. 207–218), an grundlegenden menschlichen Verhaltensweisen darstellt. „Die Computer tun nichts anderes, als mit der menschlichen Faszination der Suche zu spielen“ (S. 210). Dabei bezieht er sich konkret auf die Frage der Ausschüttung des Glückshormons Dopamin, das immer dann freigesetzt wird, wenn jemand „einen Gedanken oder eine Lösung gefunden hat, ein Kunstwerk geschaffen oder eine Erkenntnis verinnerlicht hat” (ebd.).

Das Problem besteht heute aber genau darin, dass Wissen oft mit Denken gleichgesetzt wird. Schirrmacher führt dies an einigen Beispielen in „Payback“ beeindruckend vor, zum Beispiel, wenn er zeigt, wie computergestützte Anamnesen im medizinischen Bereich zu Fehldiagnosen führen, weil im Computer vorhandene Diagnosen einfach von einer Krankenakte in eine andere kopiert werden, nur weil die Symptome ähnlich scheinen (S. 39–42). Ähnlich ist es an vielen Punkten im Umgang mit verfügbaren digitalen Ressourcen, die per Drag and Drop übernommen werden, ohne durchdacht zu werden.

Nicht, dass es solche Kopierwut nicht auch schon in Zeiten gegeben hätte, als analog mit Büchern gearbeitet wurde, aber der Umgang mit Büchern scheint strukturell doch häufiger zu einer kritischen Rezeption geführt zu haben, weil sie selbst die Diskurse zu einem Thema möglicherweise doch intensiver vorführten, als dies beispielsweise Wikipedia kann.6

Das Problem ist ein „Wer-wird-Millionär-”, ein „Trivial Pursuit-“, ein „Enzyklopädie-Problem“. Das „Bescheid-Wissen“ wird an die Stelle des aktiven Suchens und Zweifeln gesetzt. Es ist das alte Faustproblem: Während Faust zweifelnd hin und her irrt und sucht, was die Welt im Innersten zusammenhält, fasst der Schüler in den Versen 1966f die heutige Position treffend zusammen:

„Denn, was man schwarz auf weiß besitzt, Kann man getrost nach Hause tragen.“

Wir haben es also, anders als Schirrmacher es darstellt, nicht mit einem neuen Problem der Bewusstseinsbildung gegenüber Inhalten zu tun, sondern mit einem Phänomen, das so alt ist, wie Menschen sich in der dialektischen Struktur von Wissen und Unsicherheit gegenüber dem Wissen befinden.

Doch in der Gegenwart, hier stimme ich Schirrmacher zu, tut sich, insbesondere in Bildungskontexten, eine neue dialektische, nahezu paradoxe Struktur auf, die in der Forderung nach Individualisierung von Lernprozessen und dem „Zertifizizierungswahn“, „der grotesken Verschulung heutiger Hochschulausbildung“ (Vgl. S. 211) ihren Ausdruck findet. Und so stimme ich Schirrmacher auch zu, wenn er schreibt:

„Die Informationsgesellschaften sind gezwungen, ein neues Verhältnis zwischen Wissensgedächtnis und Denken zu etablieren. […] Das pure Wissensgedächtnis stammt aus Zeiten, in denen Informationen nicht nur rar waren, sondern auch geschützt werden mussten.“ (ebd.)

Wie also muss Lernen in einen Wissensgesellschaft aussehen? Schirrmacher kommt zu dem Schluss, dass „die Bildung der Zukunft darin bestehen muss, Unsicherheiten zu entwickeln“. Es geht also nicht mehr darum, „Bescheid-Wissen“ in Köpfe zu Köpfe zu transportieren, sondern den Prozess der Wissensfindung selbst zu thematisieren, zu zeigen, dass Wissen in vielen Fällen ein „Zwischenstand“ der Forschung ist, dass Forschung Modelle erzeugt, die aber nicht unverrückbar sein müssen und es in den seltensten Fällen auch sind.

Sich des eigenen Verstandes zu bedienen und an die Stelle scheinbar stabilen Wissens die Unsicherheit gegenüber dem Wissen zu setzen, ist das zentrale Projekt der Aufklärung, wie Kant sie sah.

Schirrmachers Schlussfolgerung ist insofern zutreffend, als sie genau dieses Projekt der Aufklärung in den Fokus nimmt und seinen Wert betont, der gerade unter heutigen Umständen von ganz besonderer Bedeutung ist. Dabei muss die konkrete Unsicherheit gegenüber „Bescheid-Wissen“ in Bildungsprozessen erfahrbar und für die Prozesse selbst grundlegend sein / werden. Den digitalen Mitteln müssen konkrete Erfahrungen gegenüber gestellt werden. Eine Mediendidaktik muss sich selbst auf den Umgang mit dem Prozess des Erkenntnisgewinns im Rahmen digitaler Medien befassen und darf dabei auch nicht aus dem Blick verlieren, dass eine Erfahrung am Bildschirm keine sinnlich-körperliche Erfahrung ist.

Die Gefahr besteht darin, dass wir aus der Sitz-Schule mit frontalen Unterrichtsformen eine Sitz-Schule machen, in der an die Stelle des auf den Lehrer zentrierten Unterricht ein auf den Bildschirm zentrierter Unterricht treten könnte, der eine Körperlosigkeit des Lernens durch eine andere ersetzt. (Vgl. hierzu die Schriften Horst Rumpfs und auch seinen im „Archiv der Zukunft“ verfügbaren Vortrag „Schulen der Körperlosigkeit?“)

So sehr der Ansatz, digitale Medien für selbstgesteuertes Lernen zu nutzen, in meinen Augen begrüßenswert ist und so sehr ich Schirrmacher zustimme, dass es Bildungsprozessen, in meinen Worten ausgedrückt und der Sprache der Aufklärung ausgedrückt, um die Befähigung der Menschen zur Nutzung des eigenen Verstandes, also zu Entwicklung von Unsicherheiten gegenüber vorgegebenem Wissen, gehen muss, so sehr stoße ich mich daran, dass Schirrmacher auf Herausforderungen einer neuen Technologie und deren Folgen, die er auf der Basis empirischer Daten beeindruckend darstellt, mit alten Rezepten antworten, die inhaltlich völlig korrekt sind, aber die veränderte Struktur der Wissensgesellschaft meines Erachtens nur ungenügend in den Blick nehmen. Oder, um es kurz zu fassen: Die binäre Struktur des Codes, der gegenwärtiges Wissen mehr und mehr prägt, bleibt in ihren möglichen Folgen für das Bewusstsein des Menschen in Schirrmachers Reflexionen weitgehend unberücksichtigt, sodass ich an dieser Stelle meine Unsicherheit gegenüber Schirrmachers Darstellung zum Ausdruck bringen will.

Vilém Flusser nimmt, anders als Schirrmacher, den Code, auf dem Wissen basiert in den Blick und zeigt, wie sich durch die Schriftlichkeit das Bewusstsein des Menschen verändert hat. Das Alphabet und die damit verbundene Linearität hat, so Flussers These, ein linear gedachtes historisches Bewusstsein überhaupt erst möglich gemacht. Bezüglich des Alphabets in Zeiten, in denen nur wenige des Lesens und Schreibens mächtig waren, schreibt er:

„Es bildete einen Geheimcode, und nur die darin Eingeweihten verfügten über historisches Bewusstsein. Der größte Teil der Gesellschaft orientierte sich weiterhin in der Welt anhand von harten Gegenständen, vor allem anhand von Bildern, und dank der gesprochenen Sprache. Das heißt, der größte Teil der Gesellschaft lebte in einem magischen und mythischen Bewusstsein.“7

Der Code, der das Wissen in Zeichen verwandelt, prägt, so die These, das Bewusstsein derer, die sich dieses Codes bedienen.

Wenn diese These stimmt, dann ergeben sich für die Gegenwart Herausforderungen, die weit über Schirrmachers Problembeschreibungen und Lösungsansätze hinaus gehen.

Wir erleben nicht nur einen Wandel der Leitmedien, sondern auch die Einführung eines neuen Codes, in dem unser Wissen in Zeichen übertragen wird und der das Bewusstsein der Menschen verändert bzw. verändern wird.

Das Problem dieser These besteht darin, dass die Oberfläche, die Zeichen, die wir in digital (vernetzten) Codierungen wahrnehmen, auf den ersten Blick der bisherigen Codierung gleichen. – Hier stehen Buchstaben, die linear aneinander gefügt einen Text ergeben. An anderen Stellen des Netzes sind Bilder zu finden, gesprochene Sprache spielt in digitalen Formaten ebenso eine Rolle. Und in multimedialen Zusammenhängen werden diese Formen der Codierung des indirekten Zugangs zur Wirklichkeit zusammengefügt.

Außer der breiteren, schnelleren und zeitunabhängigeren Verfügbarkeit der Informationen scheint sich also nichts verändert zu haben. Und genau an dieser Stelle gibt es Grund, diese als selbstverständlich nahe liegende Annahme mit einer Unsicherheit zu versehen und die Fragestellung auszuweiten.

Schirrmacher selbst weist auf die binäre Struktur von Entscheidungen hin, von der viele unserer Entschlüsse geprägt sind: „Tun oder Nicht-Tun, ein Auto kaufen oder nicht, Schokoladenkekse essen oder nicht, eine Diät machen oder nicht, ein Pulverfass anzünden oder nicht.” (S. 197) Doch darüber hinaus stellt er auch dar, wie der binäre Code selbst das Leben und vor allem unser Selbstbild verändert. Insofern berücksichtigt er auf empirischer Ebene das Problem, das hier einen erweiterten medientheoretischen Kontext gestellt wird.

Schirrmacher greift das Phänomen der „Empfehlungen“ auf, das bereits heute, auf der Basis früherer Entscheidungen, z. B. auf Seiten wie der von Amazon, von Last.fm etc. beobachtet werden kann; das Phänomen, dass Facebook Freundschaftempfehlungen macht etc. Binäre Strukturen werden bereits heute zur Analyse menschlichen Verhaltens benutzt, um daraus Prognosen über mögliche Entscheidungen in der Zukunft zu stellen.

Bereits in diesem Phänomen spiegelt sich die Struktur binärer Codes wider. Es geht um ein „Entweder-Oder“, um die Annahme, dass Verhaltensweisen selbst dann binären Strukturen des „Ja oder Nein“ folgen, wenn es sich um so komplexe Phänomene wie z. B. Freundschaft handelt.

Wie es zu diesen Empfehlungen kommt, wie automatisierte, Algorithmen folgende Programme mit Daten umgehen und wo die Grenzen dieser Verfahren liegen, vermag kaum jemand zu sagen. Und deshalb formuliere ich in Anlehnung an Flusser:

Der digitale, Medien prägende Code ist eine Art Geheimcode, und nur die darin Eingeweihten verfügen über digitales Bewusstsein. Der größte Teil der Gesellschaft orientierte sich weiterhin in der Welt anhand von Oberflächencodes, die an alte Codes erinnern (Buchstaben, Bilder…), die aber, vor allem im Bereich der Möglichkeiten der digitalen Weiterverarbeitung solcher Daten, weit über die Optionen analoger Codierung hinausgehen (automatisierte Erhebungs- und Analyseverfahren, von Computern auf der Basis digitaler Codierungen erstellte Verhaltensprofile, die weit über das hinaus gehen, was analog überhaupt an Daten erfassbar wäre). Das heißt, der größte Teil der Gesellschaft lebt noch immer in einem analogen Bewusstsein, dem ein kritischer und reflexiver Zugang zu den Optionen der Wissensgewinnung auf der Basis binärer Codes (noch) nicht möglich ist, außer, sie werden mit den konkreten Phänomenen konfrontiert, die dann oft „magisch“ wirken und auch entsprechende Ängste auslösen können.

Wie schafft es Facebook, als Freunde Menschen vorzuschlagen, von denen man tatsächlich welche kennt? Wie kann es sein, dass Last.fm Musik vorschlägt, die den entsprechenden Nutzer wirklich interessiert? Wie kommt Amazon zu Leseempfehlungen? – Die Antwort lautet: Aufgrund der Möglichkeiten zur Generierung von Wissen über binäre Codes.

Doch die Strukturen binärer Codes reichen weiter, insbesondere dann, wenn die Annahme stimmt, dass Programme in der Lage sein könnten, direkt auf die Ausgestaltung unseres Denkens und unseres Bewusstseins Einfluss zu nehmen.

Auch hier stoßen wir zunächst auf Phänomene, die binär, aber nicht neu sind: So entspricht den Einsern und Nullen des binären Codes z. B. die eindeutige Gegenüberstellung von Phänomenen, wie z. B. „Gut“ und „Böse“.

Die meisten Blockbuster im Thrillerbereich beruhen genau auf dieser binären Gegenüberstellung, die aber auch in politischen Entscheidungsfindungsprozessen eine Rolle spielt. Insbesondere wenn es um Fragen von Krieg und Frieden geht, zeigt sich, dass binäre Wahrnehmungsweise, die sich auf „gut“ und „böse“ beschränken, zu den Voraussetzungen kriegerischer Auseinandersetzungen gehören, während „Frieden“ von wesentlich differenzierteren Zugangsweisen zur Wirklichkeit abhängig ist, also darauf angewiesen ist, dass die Herrschaft der Dualität binärer Strukturen, die nur Schwarz und Weiß zulässt, durch Strukturen ersetzt wird, die Grautöne in großer Zahl ermöglichen.

Wenn die These stimmt, dass Codes, mit deren Hilfe wir unseren Zugang zur Wirklichkeit bekommen, das Bewusstsein zu prägen vermögen, dann müssen die Unsicherheiten, die Schirrmacher für Bildungsprozesse einfordert, die Unschärfen des Wissens, mit denen wir auch gegenüber digitalen Medien zu tun haben, selbst zum Gegenstand der Wissensfindungsprozesse werden.

Für Bildungsprozesse ergeben sich daraus folgende Überlegungen, die hier vor allem als Diskussionsgrundlage dienen sollen und angesichts des bereits erreichten Umfangs dieses Artikels nur kurz angerissen werden (und hoffentlich in der Diskussion in den Kommentaren, über antwortende Artikel in anderen Blogs etc. ausdifferenziert und vertieft werden):

  • Im Informationszeitalter gehört es zu den Grundaufgaben von Bildungsprozessen, der Information und dem in ihr behaupteten Wissen den Zweifel und die Entwicklung einer angemessenen Unsicherheit im Umgang mit Informationen gegenüber zu stellen.
  • Neben verhaltenspsychologischen Dimensionen, die mit der Nutzung digitaler Medien verbunden sind und die Schirrmacher ins Zentrum seiner Überlegungen stellt, bedarf es einer (medien)philosophischen Reflexion auf die Grundlagen der unsere Bewusstseinsprozesse steuernden Codes, die uns einen (relativen) Zugang zur Wirklichkeit verschaffen. Diese Relativität des Zugangs zur Wirklichkeit (mit Kant gesprochen: Die Unmöglichkeit, das Ding an sich zu erkennen, da Erkenntnis immer eine (sinnlich) vermittelte ist) gehört ins Zentrum von Bildungsprozessen.
  • Angesichts der analogen Grundstruktur menschlicher Wissensgewinnung, darf eine angemessene Mediendidaktik nicht den Fehler begehen, digitale Formen des Lernens alleine ins Zentrum von Bildungsprozessen zu stellen. Die Kompetenz zum angemessenen Umgang mit analogen Arbeitsformen (vom Umgang mit Büchern über handschriftliche Verfahren – z. B. in der Mathematik) gehört nach wie vor und gleichberechtigt in den Kontext einer umfassenden Allgemeinbildung.
  • Der Computer darf nicht dazu führen, dass an die Stelle von Formen des Frontalunterrichts durch eine Lehrperson nun eine neue Form der frontalen Wissensvermittlung tritt, die durch „Bescheid-Wisser-Medien“ wie z. B. Wikipedia geprägt sind8.
  • Mind. Grundlagen der digitalen Codierung und der sich daraus ergebenden Möglichkeiten und Grenzen im Umgang mit digital verfügbaren Daten, gehören auf die schulischen Lehrpläne, um so einen aufgeklärten Umgang mit binären Codes zu ermöglichen und das „Geheimwissen“ derer, die sich dieser Codes bedienen können aufzulösen.
  1. „.… diese Kunst [die Erfindung der Buchstaben und damit der Schrift TL] wird Vergessenheit schaffen in den Seelen derer, die sie erlernen, aus Achtlosigkeit gegen das Gedächtnis, da die Leute im Vertrauen auf das Schriftstück von außen sich werden erinnern lassen durch fremde Zeichen, nicht von innen heraus durch Selbstbesinnen. Also nicht ein Mittel zur Kräftigung, sondern zur Stützung des Gedächtnisses hast du gefunden. Und von Weisheit gibst du deinen Lehrlingen einen Schein, nicht die Wahrheit: wenn sie vieles gehört haben ohne Belehrung, werden sie auch viel zu verstehen sich einbilden, da sie doch größtenteils nichts verstehen und schwer zu ertragen sind im Umgang, zu Dünkelweisen geworden und nicht zu Weisen“ – Platon: Phaidros. In: Sämtliche Dialoge. Hamburg 1993, Bd. 2, S.103. []
  2. Vgl. hierzu: Kerckhove, Derrick de (1995), Schriftgeburten. vom Alphabet zum Computer, München, Fink []
  3. Kerckhove, Derrick de (1995), Schriftgeburten. vom Alphabet zum Computer, München, Fink, 18. []
  4. Kerckhove, Derrick de (1995), Schriftgeburten. vom Alphabet zum Computer, München, Fink, 19. []
  5. Vgl. hierzu: FLUSSER, Vilém (2002): Medienkultur. herausgegeben von: BOLLMANN, Stefan. Frankfurt am Main, 3. Aufl. 2002 (1997). Flusser beschreibt hier unter anderem auch, wie das Aufkommen des Alphabets die Strukturen des Denkens und des Bewusstsein veränderte. Er schreibt „Es [das Alphabet TL] bildete einen Geheimcode, und nur die darin Eingeweihten verfügten über historisches Bewusstsein. Der größte Teil der Gesellschaft orientierte sich weiterhin in der Welt anhand von harten Gegenständen, vor allem anhand von Bildern, und dank der gesprochenen Sprache. Das heißt, der größte Teil der Gesellschaft lebte in einem magischen und mythischen Bewusstsein.“ (S. 45) []
  6. Allerdings scheinen sich Strukturen der kritischen Rezeption auch in digitalen Kontexten zu entwickeln: So gibt es auf Wikipedia zu jedem Artikel die Möglichkeit, eine Diskussion zu führen, in Blogs werden Kommentare verfasst etc. Möglicherweise entwickelte sich in digitalen Kontexten eine womöglich noch intensivere Form der Diskurse, die sich z. Zt. erst entwickelt. []
  7. FLUSSER, Vilém (2002): Medienkultur. herausgegeben von: BOLLMANN, Stefan. Frankfurt am Main, 3. Aufl. 2002 (1997), S. 45. []
  8. Was hier als eine massive Kritik an Wikipedia klingen mag, ist eine Kritik, die sich auf alle Formen lexikalischer Präsentation von Wissen bezieht, für die Wikipedia eine Metapher geworden ist. Früher war das Problem, dass Lernende aus dem Brockhaus zitierten und das für eine angemessene und vor allem ausreichende wissenschaftliche Quelle hielten, heute ist an die Stelle des Brockhaus oder anderer Lexika Wikipedia getreten. Damit ist kein Werturteil über dieses erstaunliche Projekt gefällt. []

Schulbücher und freie Unterrichtsmaterialien

Ein zentraler Punkt im Lehrerberuf ist die Vorbereitung des Unterrichts. Diese geht weit über eine inhaltliche Vorbereitung hinaus.

Natürlich muss man nicht nur allgemein im Fach, sondern auch in den speziellen für den Unterricht relevanten Themengebieten über angemessenes Sachwissen verfügen, damit eine angemessene didaktische und methodische Aufbereitung für den Unterricht möglich ist. Das gilt meines Erachtens für alle Unterrichtsformen, sowohl bei offenen, stark auf die Eigenaktivität der Schülerinnen und Schüler setzenden Methoden als auch bei Frontalunterricht.1

Neben dieser Arbeit an der Sache, besteht Unterrichtsvorbereitung aber in vielleicht noch größerem Maße darin, die Sache auf eine Lerngruppe hin zu analysieren und differenzierte Lernszenarien zu entwickeln, die es den unterschiedlichen Lerngruppen und dann auch noch den individuellen Ansprüchen der Schülerinnen und Schüler ermöglichen, in der Auseinandersetzung mit Themengebieten zu eigenen kognitiven Leistungen und somit zu einem Lernfortschritt zu gelangen.

Schulbücher sollen diese Arbeit erleichtern. Sie unterstützend gibt es in vielen Fällen Arbeitshefte als Begleitmaterialien, die jedoch in der Regel nicht in den Schulen im Rahmen der Lehrmittelsammlungen verfügbar sind, sondern von den Schülerinnen und Schülern bzw. deren Erziehungsberechtigten selbst angeschafft werden. Doch die Schulbücher sind statisch. Einmal angeschafft, werden sie in der Regel über relativ lange Zeiträume hin eingesetzt, was selbst bei den besten Schulbüchern angesichts der heute zurecht an den Unterricht gestellten Forderungen mit einigen Problemen verbunden ist.

  1. Selbst in den „besten“ Schulbüchern sind die Unterrichtseinheiten unterschiedlich „gut“, sodass eigentlich eine ganze Sammlung an Schulbüchern nötig wäre, um für alle zu erarbeitenden Unterrichtsinhalte „gute“ Unterrichtseinheiten zur Verfügung zu haben, auf die ein didaktisch an die Lerngruppen und die in ihnen anzutreffenden Individuen angepasster Unterricht aufbauen könnte.
  2. Schulbücher sind nicht für eine konkrete Lerngruppe erstellt, sondern als „universales“ Werkzeug angelegt.
  3. Schulbücher unterliegen dem Copyright, sodass es auch nicht möglich ist, wenn man ein Schulbuch einsetzt, aber in einem anderen zu einem Thema eine bessere Einheit findet, diese einfach zu kopieren. Das heißt: Eine einmal getroffene Entscheidung für ein Schulbuch prägt den Unterricht in einem Fach über viele Jahre hin. „Updates“, die Anpassungen ermöglichen, sind in der gedruckten Form nicht vorgesehen.

Bleibt als Ausweg für viele Lehrende nur, eigene Materialien zu erstellen, was angesichts der zu unterrichtenden Stunden aber auch nur in begrenztem Rahmen geht. Entsprechend machen sich heute viele Lehrende auch im Internet auf die Suche nach Material, dass für ihre Lerngruppen im Kontext unterschiedlicher Themengebiete nutzbar ist. Entsprechende Plattformen haben sich im Netz entwickelt, die das grundlegende Problem jedoch auch nur begrenzt aufzugreifen vermögen, da die Qualität der zur Verfügung gestellten Materialien, oft bis in die Sachebene hinein, sehr unterschiedlich ist.

Darüber hinaus ergibt sich auch hier das Phänomen einer gewissen Starrheit der Materialien. Oft ist es so, dass Lehrende, wenn die Materialien zur Nutzung frei gegeben sind, diese bearbeiten und an die Anforderungen des eigenen Unterrichts anpassen. Im Vergleich zu den Schulbüchern sind hier also schon verbesserte Möglichkeiten der Flexibilisierung von Unterrichtsmaterialien gegeben.

Der Stand ist, wenn ich das richtig sehe, heute folgender: Es gibt Schulbücher, die für viel Geld angeschafft werden, Nutzer an sich binden und die flexible Nutzung von Unterrichtseinheiten aus unterschiedlichen Schulbüchern erschweren oder gar unmöglich machen. Gleichzeitig erstellen Lehrende mit viel Aufwand Unterrichtsmaterial, das entweder völlig neu erstellt wird2 oder auf von Kollegen und Kolleginnen in unterschiedlicher Qualität zur Verfügung gestellten Materialien aufsetzt. Damit diese Materialien für den Unterricht nutzbar sind, müssen sie in vielen Fällen vervielfältigt werden, was wiederum mit in der Gesamtsumme relativ hohen Kopierkosten an den Schulen verbunden ist. Darüber hinaus gibt es Lehrende, die auf die Nutzung der verfügbaren Schulbücher verzichten, weil sie von deren Qualität nicht überzeugt sind oder weil eine Differenzierung des Unterrichts auf der Basis dieser Schulbücher auf einen größeren Arbeitsaufwand hinaus zu laufen scheint, als wenn die Materialien gleich ganz selbst erstellt werden.

Anders als im Softwarebreich hat sich im Bereich der Unterrichtsmaterialien bislang keine allzu deutlich wahrnehmbare Bewegung entwickelt, die kooperativ an freien Unterrichtsmaterialien arbeitet. So wird beispielsweise das Schulbuchwiki alles andere als „hyperaktiv“ genutzt, was sicherlich auch damit zusammenhängt, dass das Erstellen von Unterrichtsmaterial eine alles andere als triviale Angelegenheit ist oder auch damit, dass Lehrende nicht in allen Fällen bereit sind, ihr einmal erstelltes Material „einfach so“ zur Verfügung zu stellen.

Und doch scheint die Zeit die Schulbuchs „eigentlich“ vorbei, da klassische Schulbücher in kaum einer Hinsicht den Anforderungen heutigen Unterrichts angesichts der doch relativ langen Zyklen, die bis zur Erneuerung der Schulbücher vergehen, entsprechen können.3 – Und doch lebt das Schulbuch weiter, inklusive seiner „Geschlossenheit“ und den Problemen, die mit ihrer mangelnden Anpassungsfähigkeit verbunden sind.

Alternativen sind aber denkbar und ich möchte an dieser Stelle zumindest eine dieser Alternativen, die nach den Möglichkeiten des Einsatzes von E-Books fragt, notieren. Über Ergänzungen und weitere Ideen würde ich mich in den Kommentaren sehr freuen.

  • Schulbücher könnten durch E-Books ersetzt / ergänzt werden. Hier böte sich auch für Schulbuchverlage ein interessantes Feld, da sie ihre Schulbücher „updaten“ könnten. Uninteressant ist dieses Feld für Schulbuchverlage, weil es die mit der Neuanschaffung von Schulbüchern verbundenen Umsätze wohl reduzieren dürfte. Darüber hinaus böte eine E-Book-Lösung wesentlich einfachere Möglichkeiten, einzelne Unterrichtseinheiten, die von Lehrenden oder anderen in dieser Hinsicht kompetenten Leuten erstellten Materialien, als E-Book zur Verfügung zu stellen, sodass sich z. B. Schulen aus dann mit Sicherheit in viel größerem Umfang zur Verfügung stehenden freien Materialien an Hauscurricula angepasste „Schulbücher“ erstellen könnten.
  • E-Books könnten aber auch dazu führen, dass sich Plattformen im Netz beleben oder entwickeln würden, die bereits heute auf das kollaborative Erstellen von Unterrichtsmaterialien hin ausgerichtet sind4. Lehrende könnten dann gemeinsam – und mittelfristig wahrscheinlich auch den eigenen Arbeitsalltag entlastend – in Form von Wikis Schulbücher entwickeln, die an die Anforderungen der Lehrpläne in den unterschiedlichen Bundesländern hin ausgerichtet sind. Diese Plattformen könnten darüber hinaus in der Lehrerausbildung gute Dienste leisten, da sie Studierende neben der fachlichen Seite früh mit Fragen der didaktisch sinnvollen Aufbereitung für den Unterricht in relevanter Weise in Kontakt bringen könnten. Außerdem wäre es möglich, unterschiedlichste Differenzierungsstufen für unterschiedliche Lerngruppen bzw. Schülerinnen und Schüler zu erstellen, die weit über die bisherigen Angebote in Schulbüchern hinaus gingen.
  • E-Books wären ein Beitrag zur Schülergesundheit, da sie das Gewicht der Schultaschen deutlich reduzieren könnten. Angesichts der Kosten, die heute für das Anschaffen und Vorhalten großer Zahlen an Büchern verbunden sind, wäre es durchaus auch mal lohnend zu überprüfen, ob sie nicht sogar zu einer Kostensenkung beitragen könnten. Dies gilt insbesondere auch für „klassische“ Schullektüren, die oft von Schülerinnen und Schülern selbst angeschafft werden, obwohl sie gemeinfrei sind und somit kostenlos als E-Books verfügbar gemacht werden könnten oder auch schon verfügbar sind.
  • Der Umgang mit E-Books sollte natürlich nicht das Erlernen analoger Kulturtechniken (insbesondere die Handschrift) ersetzen. Es geht hier also nicht darum, dass E-Books bspw. mit den Funktionen eines Laptops verbunden werden, sondern tatsächlich vor allem um die Funktion des „Buches“ in digitaler Form.

Ein Problem digitaler Instrumente ergibt sich im Rahmen von Prüfungen, da E-Book-Reader ja auch die Möglichkeit geben, selbst erstellte Dokumente verfügbar zu machen. Ihre Nutzung würde also auch Fragen bezüglich des Designs von Prüfungen aufwerfen, dessen bin ich mir bewusst, ohne dass ich es an dieser Stelle aber schon in den Vordergrund stellen will.

Insgesamt erscheint es mir wünschenswert, dass sich im Bereich der Unterrichtsmaterialien eine ähnliche „OpenSource“- und „CreativeCommons“-Bewegung entwickeln würde, wie sie im Bereich der Software und auch in Bereichen, die Inhalte anbieten, bereits vorhanden ist. Dabei müssten Instrumente der Qualitätssicherung der entstehenden Materialien von Anfang mit gedacht werden, auch wenn  es sich im Bereich der OpenSource-Software gezeigt hat, dass das kollaboratives Arbeiten zu eher besseren Ergebnissen führt als manche proprietäre Softwarlösungen bieten kann. Andererseits hat „Wikipedia“ gezeigt, dass kollaboratives Arbeiten auch zu massiven Konflikten und zur Manipulation von Informationen führen kann, was auch in Schulbuchwikis (vor allem bei historischen und politischen Themen, aber auch im Bereich von Materialien zum Ethik- und Religionsunterricht) zu erwarten wäre. Es gälte also von Anfang an, diese Erfahrungen aus anderen Bereichen mit zu denken und nach Möglichkeiten zu suchen, die Offenheit und Zuverlässigkeit erstellter Materialien weitgehend sicher stellen können.

Und an dieser Stelle könnten dann entsprechende Aktivitäten von an solchen offenen Projekten zur Erstellung von Lehrmaterialien Beiteiligter auch einen Beitrag zur Frage der Qualitätssicherung in solchen kollaborativen Projekten leisten. Oder?

Nachtrag, 07.02.2011: Netzpolitik.org verweist heute auf die Unterstützung der Open-Education-Bewegung in den USA. Dort heißt es unter anderem „Die Entwicklung von Open Educational Ressources (Offene Bildungsmaterialien) interessiert in Deutschland leider fast Niemanden.” – Na. Dann ist das hier wohl eher Teil des „fast“ und nicht des „Niemanden“ ;-)
  1. Hier wird nur das Spektrum der verbreiteten Unterrichtsformen genannt, ohne dass sie an dieser Stelle bewertet würden. []
  2. Wie sinnvoll ist es, wenn tausend Deutschlehrer zur Übung von Rechtschreibphänomenen tausend Mal selbst kreativ werden, statt gemeinsam Material zu entwickeln, auf das andere Kollegen dann zurückgreifen können? []
  3. Die Neuanschaffungen nach der Rechtschreibreform oder im Rahmen von G8 stellen hier [für die Schulbuchverlage äußerst lukrative] Ausnahmen dar []
  4. Hier gilt es aber auf die Nutzungsbedingungen der Plattformen zu achten. So bin ich z. B. auf eine kommerzielle Plattform gestoßen, die zu verlinken ich mich hier weigere, deren Nutzungsbedingungen letztlich darauf hinaus laufen, dass Lehrende ihr Material kostenlos zur Verfügung stellen und der Plattform jede kommerzielle Nutzung und Vermarktung der Materialien damit erlauben, natürlich ohne Honorar. []

Mündlichkeit: Die vernachlässigte Seite der Sprachkompetenz?

Zwei Mal wurde mir gegenüber in den vergangenen Tagen offen das Problem angesprochen, dass es schwer fällt, gesprochenen Gedankengängen so zu folgen, wie dies bei geschriebenen der Fall ist. Zunächst kam ein Blogeintrag von Joachim Wedekind zu diesem Thema, in dem er seine Beobachtung festhält, dass es immer mehr A/V-Beiträge im Netz gebe (z. B. YouTube, Vimeo, Audioboo). Wedekind hat damit ein Problem:

„Nach jahrelanger Praxis kann ich schriftliche Dokumente relativ schnell überfliegen, auf Relevanz für mich überprüfen, Argumentationsstränge nachvollziehen und bei Bedarf Passagen exzerpieren oder speichern. Bei den Audio- und Video-Beiträgen kann ich das nicht. Da bin ich gezwungen, alles von vorne bis hinten anzuhören/anzusehen; wenns wirklich wichtige Passagen sind womöglich mitschreiben. Für mich widerspricht das dem schnellen Medium.“

Außerdem findet sich eine Reaktion auf meinen zuletzt veröffentlichten Audiobeitrag zur Frage, wie sachlich die Bildungsdiskussion in Deutschland abläuft, im Blog „Kreide fressen“. Dort heißt es zu dem Audiobeitrag:

„Komplexe Kiste und nur schwer zu diskutieren, weil Herr Larbig sich entschieden hat, seine These als Audio-Boo zu veröffentlichen, was das Diskutieren mühsam macht und dazu führt, dass ich dreiviertelfertige Kommentare in den Orkus banne.“

Ich kenne das Problem, das in diesen zwei Rückmeldungen angesprochen wird, aus eigenen Erfahrungen, insbesondere deshalb, weil ich leidenschaftlicher Radiohörer bin und auch Podcasts in nicht unerheblicher Menge abonniert habe, in denen es um Inhalte geht, die durchaus einiges an Konzentration und Mitdenken verlangen. Auch ich höre mir diese viel zu häufig einfach nur an, schreibe nicht mit und mache dann auch die Erfahrung, dass es gar nicht so leicht ist, alleine auf der Basis des Hörens angemessen mit den gehörten Gedankengängen umzugehen. Das gelingt nur, wenn ich mitschreibe, einzelne Passagen wiederholt höre, wichtige Zitate notiere etc.

Das Mitschreiben ist für mich aber auch schon dann effektiv, wenn ich relativ knappe Notizen anfertige oder diesen die Form einer Mindmap gebe, mit der ich dann im Nachhinein die Struktur des Gesagten und ausgeführte Inhalte meist ganz gut rekonstruieren kann.

Doch wenn ich auf einen solchen Beitrag reagieren will, ist es damit meist nicht getan, vor allem dann nicht, wenn ich auf einen Audiobeitrag schriftlich reagiere. Das hängt mit der Erwartungshaltung zusammen, die ich selbst an geschriebene Texte habe: Da soll zitiert und nicht nur wiedergegeben werden, was mir „irgendwie“ in Erinnerung geblieben ist. Wenn ich mündlich reagiere, ist dieser Selbstanspruch ein wenig geringer  – und es wird sehr schnell erfahrbar, ob ich 1. richtig gehört und 2. einen Beitrag angemessen verstanden habe. – Auf Tagungen läuft Kommunikation in aller Regel mündlich ab – und dort hat sich bislang kaum jemand beschwert, wenn ein Beitrag nicht schriftlich vorgelegt wurde. Interessant, dass dies bei entsprechenden mündlichen Beiträgen, die im Internet veröffentlicht werden, anders ist; interessant, dass im Rahmen eines multimedial ausgerichteten Mediums bei bestimmten Inhalten dann offensichtlich doch nach wie vor die schriftliche Form bevorzugt wird.

Auf Tagungen ist das Problem eher umgekehrt. Joachim Wedekind beschreibt es in einem Kommentar zu seinem oben zitierten Artikel wie folgt:

„Ich erinnere mich an einen Vortrag, bei dem der Redner den Vorwurf, man könne seinem (abgelesenen) Vortrag wohl kaum folgen, konterte mit dem Hinweis, sein Gedankengang sei so kompliziert, dass er ihn selber ablesen müsse.“

Gerade hier wird für mich sehr deutlich, dass wir uns bei schriftlichen und mündlichen Formen des Ausdrucks auf zwei mit völlig unterschiedlichen Anforderungen verbundenen Kommunikationsebenen bewegen.

Abgelesene Vorträge sind (auch für mich) in der Regel unerträglich, weil ich den Text dann doch besser selbst lese, statt ihn mit all seinen fein gegliederten und komplexen Gedankengängen in einer Art vorgetragen bekomme, die der Informationsverarbeitung beim Zuhören absolut nicht entspricht – es sei denn, der vorbereitete Text ist ein Sprechtext, der die Bedürfnisse der Zuhörens ernst nimmt und an diese angepasst ist. Das „Schreiben fürs Sprechen“ ist etwas ganz anderes, als das „Schreiben fürs Lesen“. Und noch einmal anders ist es, wenn jemand versucht, seine Gedanken zu einem Thema (weitgehend) ohne Notizen mündlich darzustellen.

Gerade diese letzte Fähigkeit (Kompetenz) erscheint mir der eigentliche Knackpunkt zu sein, um zu erfahren, ob ich oder jemand anderes ein Thema oder einen Inhalt so verarbeitet hat, dass mündlich sinnvoll und in einer gewisser Strukturiertheit mit dem Thema / Inhalt umgegangen werden kann. In der Schriftlichkeit kann ich mich dabei viel zu leicht hinter (schnell mal heraus gesuchten) Zitaten oder „auswendig“ gelernten Formulierungen verstecken, während im mündlichen Sprachgebrauch nur die Zitate verfügbar sind, auf die ich schnell zugreifen kann, die vielleicht sogar in der Erinnerung angekommen sind. Außerdem fällt es viel schwerer, auswendig gelernte Versatzstücke angemessen in die Darstellung zu integrieren. Kurz: Wer sich frei zu einem Thema äußern muss, lässt sehr schnell erkennen, was angekommen ist und verstanden wurde.

Als Lehrer fällt mir zudem auf, dass Unterricht, bei allen Visualisierungen, Verschriftlichungen etc., ein sehr stark mündlich geprägtes Geschehen ist, dessen Ergebnisse interessanterweise weitgehend in schriftlichen Leistungsnachweisen überprüft werden. Entsprechend stellt sich für mich die Frage, wie eine solche Mündlichkeit gelingen kann. Interessant finde ich dabei auch, dass ich zum Teil von Lehrenden die Rückmeldung bekam, wie schwer es sei, gesprochenen Inhalten zu folgen und wie viel leichter da doch der gewohnte und scheinbar viel besser eingeübte Umgang mit schriftlich fixierten Texten falle.

Dabei geht mit der Fähigkeit der mündlichen Darstellung komplexer Inhalte immer auch die Notwendigkeit einer entsprechenden Hörkompetenz einher, eine Kompetenz, die im Lehrberuf von zentraler Bedeutung ist, da Lehrende gerade im Bereich des Hörens auf mündliche Äußerungen im Unterricht besonders gefordert sind (was auch für Lernende in solchen Zusammenhängen gilt), da diese mündlichen Äußerungen für den gemeinsamen Denkzusammenhang, was der Unterricht für mich idealerweise ist, wichtig sind.

Und damit dürften dann alle Gründe genannt sein, warum ich mich zur Zeit wieder einmal stärker mit der gesprochenen Sprache im Kontext von Inhalten befasse: Es handelt sich schlicht um einen eigenen Bereich der Ausdrucks- und Rezeptionsfähigkeit, der mir, gerade in wissenschaftlichen Zusammenhängen, oft viel zu wenig reflektiert scheint oder, wo er doch reflektiert ist, als nur schwer mit der Komplexität der zu vermittelnden Inhalte kompatibel erscheint, so dass es dann vielleicht wider besseren Wissens doch wieder auf gesprochene Lesetexte hinausläuft, wenn ein Vortrag zu halten ist, der dann die Zuhörenden, selbst wenn sie noch so kompetente Zuhörer sind, völlig überfordert.

Ich erlebte selbst einmal einen Vortrag, den ich hier als Extrembeispiel gerade erinnere: Ein Philosophieprofessor hielt einen 90 Minuten langen Vortrag, der in etwa zur Hälfte aus nicht übersetzten lateinischen Zitaten bestand, sodass selbst die fähigsten Lateiner im Raum jeglichen Anschluss an den Gedankengang verloren haben.

Wenn ich zur Zeit also sehr viele Audiobeiträge höre, viel bewusster höre, als noch vor ein paar Wochen, versuche ich damit, meine eigene Auffassungsgabe, die Fähigkeit des sinnerfassenden Hörens (als Äquivalent zu dem sinnerfassenden Lesen, wie es z. B. bei den PISA-Studien immer wieder verlangt wird) weiter zu entwickeln.

Gleiches gilt für meine in den vergangenen Wochen in deutlich umfangreicherer Zahl entstandenen Audioaufnahmen, von denen ich einige auch im Netz und in diesem Blog zur Verfügung stelle.

Es ist außerdordentlich anspruchsvoll, (weitgehend / in den allermeisten Fällen) ohne schriftliche Notizen einen Audiobeitrag zu einem Thema, einem Inhalt zu erstellen. Oft bedarf es (noch?) mehrerer Anläufe (da ich die Beiträge natürlich auch nicht in einer Schnittsoftware nachbearbeite(n will).) Oft merke ich beim ersten Anlauf, dass ich mir noch ein paar Gedanken zu einem Thema machen muss, bevor ich frei sprechend damit umgehen kann. Kurz: Audiobeiträge zu Themen, die frei gesprochen sein sollen, sind für mich selbst zu einem Evaluationsinstrument geworden, ob ich einen Inhalt so verstanden habe, dass ich frei mit ihm umgehen kann oder nicht.

Die damit verbundene Mündlichkeit ist aber kein „Rückfall“ in Zeiten, in denen aus Ermangelung der Möglichkeit zu schriftlichen Äußerungen, die Gesellschaft eine von Mündlichkeit geprägte Gesellschaft war. Die Basis von allem ist interessanterweise selbst dort, wo ich mich mit mündlichen Ausdrucksformen befasse, letztlich doch immer ein Bezug zur Schrift.

Was ich jedoch als Verlust empfinde, dem ich nun entgegen zu arbeiten versuche, ist mein Eindruck, dass die Kunst des Zuhörens und die Kunst des Sprechens im Kanon der „Kompetenzen“ eher eine untergeordnete Rolle zu spielen scheinen, obwohl sie, über die Auseinandersetzung mit Inhalten hinaus, in der alltäglichen Kommunikation eine zentrale Rolle spielen. Misslingt Alltagskommunikation vielleicht auch deshalb so oft, weil die dafür notwendigen Fähigkeiten des Sprechens / Erzählens und des Zuhörens oft nur rudimentär geschult sind?

Ja, auch zu den Fragestellungen dieses Beitrags, habe ich kürzlich einen Audiobeitrag erstellt, den ich hier für alle Interessierten auch noch anfüge:  

Sprache und Technik

Eigentlich sind alle technischen Medien immer von der Schriftsprache im Kopf bestimmt.

Wie funktionieren Audio & Video, wenn keine schriftlichen Konzepte vorliegen? Wird das, was ohne vorgelagerten schriftlichen Entwurf entsteht vielleicht deshalb als unprofessionell empfunden, weil die Authentizität der direkten Gestaltung des Dialoges mit der Wirklichkeit jenseits unserer Gewohnheiten liegt? Ist die von Schrift erzeugte „Professionalität“ in Audio und Video nur die Vortäuschung eines „glatten” Denkens, ohne Ecken und Kanten, ohne Umwege, ohne Zögern und Versprechen?

Auf schriftlichen Konzepten basierende Audio- und Videoproduktionen erscheinen dann meist so, dass die Schriftsprache als Hintergrund der Produktion nicht gezeigt wird. Es soll sogar der Eindruck entstehen, dass hier nicht abgelesen wird. Unsere Medien sind voll von solchen Vortäuschungen der Authentizität. Nur manchmal, wenn etwas Unvorhergesehenes eintritt, entsteht echte (?) Authentizität (?), taucht die vermittelnde Person in den Inhalten als Person auf.

Haben wir  die Möglichkeiten des professionellen und authentischen Dialoges mit der Wirklichkeit, der nicht über Schriftsprache sondern mündlich in Audio und visuell über Video vermittelt wird, noch viel zu wenig ausgelotet? Ist die Oberfläche dieser Produktionen nicht oft viel zu glatt, um einen authentischen Dialog mit der Wirklichkeit zu vermitteln?

Das sind Fragen. Und in diesen Fragen die eine Frage, wie weit die Schriftsprache unser Denken, unser Vorstellen und unsere Begegnung mit der uns „ansprechenden“ Wirklichkeit geprägt hat. Können wir überhaupt noch anders? Und wie sieht eine Nutzung medialer Formen wie Audio und Video möglicherweise aus, wenn jemand die ihnen eigenen Möglichkeiten auslotet und nutzt?

Wie unterscheidet sich die Sprache des Sprechens von der Sprache des Sehens von der Sprache des Schreibens? Und dann auch noch die Frage, wie sich die audiovisuelle Darstellungen, wenn sie einen eigenen Anspruch als mediale Form der Vermittlung stellen, von schriftlichen oder gar verlesenen schriftlichen Darstellungen unterscheiden?

Literatur zum Thema: Richard Schaeffler, Erfahrung als Dialog mit der Wirklichkeit. Eine Untersuchung zur Logik der Erfahrung, Freiburg 1995. Die Texte von Fritz Mauthner, die hier zu finden sind.

140 Zeichen Deutschunterricht: Ein Twitterprojekt

Zwischendurch immer mal wieder einen Tweet, in dem es um die deutsche Sprache und Literatur geht – so lautet die Idee, die hinter dem in der Seitenleiste neu aufgeführtem Feld „Herr Larbigs „Deutschstunde“ auf Twitter” steckt.

Wer der „Deutschstunde“ auf Twitter folgt (in der Twittersprache heißt das „followed“), bekommt immer wieder zwischen all den anderen Meldungen (Tweets) kurze Hinweise, in denen es um Fragen der Rechtschreibung geht, um Grammatik und Ausdruck. Außerdem gibt es Links zu Beiträgen, die für alle interessant sein können, die sich für deutsche Sprache und Literatur interessieren.

Eine kleine Besonderheit ist, dass in dieser „Twitter Timeline“ auch Fotos auftauchen, die ich immer dann mache, wenn mir irgendwo in der Öffentlichkeit etwas auffällt, das mit Sprache zu tun hat. Dabei interessiert mich, welchen sprachlichen „Sünden” wir in unserer Umgebung tagtäglich ausgesetzt sind. – Ich finde es spannend, mit einem solch forschenden Blick durch die Stadt zu gehen; vielleicht bin ich da nicht der einzige.

Ziel des Projekts ist es nicht, als der ständig korrigierende Lehrer durch das Netz zu laufen. Ziel ist es auch nicht, die Tweets anderer nach Rechtschreibfehlern zu durchforsten und sie dann in einer Antwort an die betreffenden Personen zu korrigieren. Es gibt jemanden bei Twitter, der macht solche Korrekturen. Ich bin es nicht. Nach wie vor bin ich der Überzeugung, dass sich die Fähigkeiten im Umgang mit Sprache Schritt für Schritt und dennoch kontinuierlich entwickeln, so sich jemand der (Schrift)Sprache wirklich aussetzt, in dem zum Beispiel viel gelesen und geschrieben wird.

Das Ziel des Projekts „Deutschstunde“ auf Twitter ist zunächst einmal ein vielleicht überraschend egoistisches: Mir dient dieses Projekt als Motivationshilfe, meine Fühler wirklich in dem Maße auf Sprache und Literatur hin ausgerichtet zu halten, wie ich mir das für mich wünsche.

Das zweite Ziel besteht darin, interessierten Twitternutzern Anregungen aus meinem wachsenden Fundus rund um Sprache und Literatur zu geben. Zumindest die Sensibilität für sprachliche Phänomene und im Umgang mit Literatur soll da unterstützt werden. Vielleicht wächst sie bei dem einen oder anderen mithilfe dieser Tweets auch noch ein wenig.

Das Interesse für einen solchen Twitter-Stream ist da. In weniger als 24 Stunden haben sich 18 Twitterer entschieden, dass sie diesem Account folgen wollen.

Ich hoffe, dass „Deutschstunde“ auf Twitter dabei keine Einbahnstraße bleibt, auf der ich mit Inhalten hausieren gehe, sondern dass sich dieses Projekt dahin entwickelt, dass über sprachliche Phänomene via Twitter diskutiert wird, dass Fragen gestellt werden etc.

Außerdem kann diesem Account natürlich auch gerne von Schülerinnen und Schülern gefolgt werden, solchen, die ich unterrichte genauso wie solchen, die ich nicht unterrichte. Und in diesem Rahmen können durchaus auch Fragen an mich gestellt werden, denn wenn ich auf konkrete Fragen Antworten suche, oft muss ich sie tatsächlich erst suchen, bin ich doch alles anderes als „Mr. Allwissend“, lerne ich selbst in der Regel eine ganze Menge dabei.

Noch aber steht das Projekt, dessen „Basislager“ im Netz dieses Blog herrlarbig.de ist, ganz am Anfang. Als „Basislager“ wird es im Blog auch (weiterhin) längere Beiträge zu Themen rund um Sprache und Literatur geben, die auf Twitter dann natürlich als Links auftauchen. Ich weiß, dass solche Beiträge durchaus gelesen werden, denn die meist gelesenen Beiträge hier sind Beiträge, in denen literarische Werke im Zentrum stehen.

Ich bin neugierig, wie sich dieses Projekt „Deutschstunde“ auf Twitter entwickeln wird. Dabei werde ich in diesem Rahmen die klassische Twitterfrage „What are you doing“ (Was machst du gerade) nicht beantworten, sondern mich tatsächlich alleine auf die Inhalte konzentrieren. Dabei kann sich der Charakter dieser Twitter-Timeline  „Deutschstunde“ aus dem Hause herrlarbig.de im Laufe der Zeit auch ändern. Dies wird die Zeit dann aber zeigen, das kann ich heute nicht voraussehen.