Archive for the ‘Paradigmenwechsel’ Category

Enterprise 2.0 - und es dreht sich doch!

Thursday, May 15th, 2008

Was wir immer schon über Enterprise 2.0 geahnt haben, aber nie zu beweisen wagten.

Sören Stamer und seine Mannen haben es einfach getan. Sie arbeiten als Enterprise 2.0.
Natürlich kann man von ihren öffentlichen Verlautbarungen getrost ein paar Prozent Leichtigkeit des Seins abziehen - schließlich will CoreMedia sein System verkaufen. Das ändert jedoch nichts an der Tatsache, dass hier Unternehmer den Sprung ins kalte Wasser getan haben und den Beweis angetreten sind: Ein Unternehmen mit mündigen Mitarbeitern funktioniert!

In ihrem Buch “Enterprise 2.0: Die Kunst, loszulassen”, das Stamer gemeinsam mit seinem Marketing-Chef Willms Buhse herausgegeben hat, plädieren sie für ein offenes Unternehmen ohne Herrschaftswissen - umrankt von Artikeln großer Namen wie Andrew McAfee, David Weinberger oder Don Tapscott Artikel und anderen Vorreitern des Themas wie Nicole Dufft von Berlecon Research und Reichwald/Möslein/Piller.

Eigentlich haben wir es immer geahnt: es ist möglich, die Wahrheit zu sagen. Auch innerhalb von Firmen. Und außerhalb: um sie herum. Nur fallen dann zwei Dinge weg, die uns lieb geworden sind und wir bekommen ein neues Problem. Die liebgewordenen Dinge sind einmal das bereits erwähnte Herrschaftswissen, das innerhalb von Unternehmen gerne von Ellbogen-gewappneten Managern genutzt wird, um sich selbst gegenüber der Abteilung und die Abteilung gegen den Rest des Unternehmens in Stellung zu bringen. Ideen von Mitarbeitern werden dazu als die eigenen ausgegeben und das dadurch “erarbeitete” Renommee wird postwendend genutzt, um die selben Mitarbeiter klein zu halten. Dass das nicht immer zum Vorteil des Unternehmens ist, liegt in der Natur der Sache.

Das zweite, was im Enterprise 2.0 Federn lassen muss, ist dementsprechend die Hierarchie: wenn das Management anerkennt, dass sein Wissen von seinen Mitarbeitern erarbeitet wurde, ist es deutlich schwerer, die darauf basierenden millionenschweren Transaktionen des Managements allein als Erfolg des Managements auszugeben. Viele Manager haben ob der Summen, die dabei im Spiel sind, den Blick für die Verhältnisse verloren (wir wollen den Namen Ackermann hier nicht nennen). Da sie die Informationen, mit denen sie ihre Deals erarbeitet haben, in aggregierter Form (und ohne Transparenz über deren Entstehungsprozess) in diskreten Aktenmappen von unten heraufgereicht bekommen haben, vergessen sie schnell, wie viel Arbeit und Ideen ihrer Mitarbeiter in diesen “Deals” stecken. Insofern stellt “Zwonull” das Unternehmen einfach nur vom Kopf auf die Füße, indem es eine Versionierung für Ideen und Konzepte anbietet, mit der man - etwa in einem Wiki - minutiös genau nachvollziehen kann, wer zu einem Thema wann welchen Gedanken beigetragen hat.

Der Knackpunkt war bisher immer das neue Problem: dass die Grenzen eines transparenten Unternehmens zu seiner Umwelt verschwimmen, ist nicht nur eines der gebetsmühlenartig hergeleierten Web-2.0-Prinzipien. Es ist gleichzeitig Voraussetzung und Resultat von mehr Transparenz innerhalb des Unternehmens: was allen Mitarbeitern bekannt ist, kommt auch schneller an die Öffentlichkeit. Das thematisiert der Artikel “Schönheit kommt von innen” von Marketingchef Willms Buhse in “Enterprise 2.0: Die Kunst, loszulassen” - und er ist dementsprechend das Kernstück des Buches.

Ein Unternehmen intern umzukrempeln ist die eine Sache. Die andere ist die Ehrlichkeit der Öffentlichkeit gegenüber. Man darf gespannt sein, ob die “wisdom of crowds” - bzw. die Weisheit der vereinten Belegschaft - auch in der Lage ist, gegebenenfalls eine Krisen-PR zu erzeugen. Ein Unternehmen gibt sich damit eine Blöße. Und es erfordert viel Mut, auch noch einen gut sichtbaren roten Kringel um die Achillesferse zu pinseln. Darin liegt die Größe dieses Experiments. Denn einen einmal ruinierten Ruf kann man nur schwer wieder herstellen.

Die Argumentation von Willms Buhse enthält nichts völlig Unerwartetes, wenn man mit der Web-2.0-Literatur vertraut ist, aber sie ist so einleuchtend wie genial einfach: wir tauschen die Möglichkeit, Fehler zu vertuschen, gegen ein System, das die meisten Fehler verhindert - Transparenz! CoreMedia stellt sich der Kritik von innen und arbeitet so lange an den Kritikpunkten, dass Kritikern von außen am Ende die Argumente ausgehen.

Zwei Dinge haben dem viel beschworenen Enterprise 2.0 bisher gefehlt: ein Proof of Concept und die Details, wie die Prinzipien des Web 2.0 im Unternehmen umgesetzt werden können. Zweiteres unterteilt sich noch einmal in eine Prozess- und eine Technologiekomponente. Stamer und Buhse haben den Vorteil, dass das von ihnen vertriebene Produkt genau diese Technologie ist. Auch über die Vorgehensweise haben sie sich bereits Gedanken gemacht, denn man kann das eine nicht ohne das andere entwickeln. Im Interview mit Sören Stamer auf PR BLOGGER klingt das so:

“Es reicht ein einziges Häkchen in unserer Blogging-Plattform und der Beitrag steht nicht nur im Intranet sondern auch im Internet. Die einzige Regel für alle Mitarbeiter ist: “Schreibt bitte nichts Dummes.” Interessanterweise funktioniert diese Regel sehr gut. Viele Mitarbeiter trauen sich und treten extern viel mehr in Erscheinung als früher.”

Und was den anderen Punkt - den Proof of Concept - angeht: Das scheinen sie auch gerade zu erproben.

Literatur:

  • Buhse, Willms (2008): Schönheit kommt von innen. Die neue Kommunikationskultur eines Enterprise 2.0. In: Buhse, Willms; Stamer, Sören (Hg.): Enterprise 2.0 - Die Kunst, loszulassen. 1. Aufl. Berlin: Rhombos-Verlag.
  • Krcmar, Helmut (2005): Informationsmanagement. Mit 41 Tabellen. 4., überarb. und erw. Aufl. Berlin: Springer.
  • Eck, Klaus (8.5.2008): Online Reputation Management 3: Sören Stamer setzt auf Enterprise 2.0. Interview mit Sören Stamer von CoreMedia. Online verfügbar unter http://klauseck.typepad.com/prblogger/2008/05/soeren-stamer.html, zuletzt aktualisiert am 8.5.2008, zuletzt geprüft am 15.5.2008.
  • del.icio.us/achimbode/Enterprise2.0

Danke an daydreamerin, die mir den Hinweis auf das Interview über delicious weitergereicht hat!

Jeffrey Pfeffer über Evidenzbasiertes Management (Evidence Based Management, EbM)

Sunday, March 16th, 2008

Wollte eigentlich einen Artikel über Evidenzbasiertes Management (EbM) schreiben, aber die Zeit fehlt (vielleicht später). Wegen der großen Relevanz des Themas (Management ist nicht mehr beliebig!) hier schon mal ein Ausschnitt aus dem Wiki zu einem Interview mit Jeffrey Pfeffer aus der aktuellen Ausgabe der Zeitschrift OrganisationsEntwicklung:

Lit:Pfeffer2008a
Aus 4CforMedia
Wechseln zu: Navigation, Suche

Link: [[Lit:Pfeffer2008a|Pfeffer, Jeffrey (2008): Jeffrey Pfeffer über Evidenzbasiertes Management und OE. Ein Gespräch via E-Mail. In: OrganisationsEntwicklung, H. 1, S. 10–15.]]

LiteraturQuellen#Alphabetisch Bib
Inhaltsverzeichnis
[Verbergen]

* 1 Relevanz
* 2 Inhalt
o 2.1 Valide Erkenntnisse im Unternehmen gewinnen
o 2.2 Auswege aus der wissenschaftlichen Misere
o 2.3 Anwendung wissenschaftlicher Erkenntnisse
* 3 Zitate
* 4 gefunden in

[bearbeiten] Relevanz

* J. Pfeffer ist Professor of Organizational Behavior an der Stanford University, Graduate School of Business
* Pfeffer liefert konkrete, anwendbare Hinweise für die Praxis
* Argumentationshilfe beim Marketing für die Weiterbildung

Dennise Rousseau machte EbM zum Thema ihrer Antirttsrede als Präsidentin der US amerikanischen Academy of Management, der weltweit größten Vereinigung von Praktikern, Forschern und Lehrenden im Managementbereich. (Zitat aus Brodbeck, Felix C. (2008): Evidenzbasiertes (Veränderungs-) Management. Einführung und Überblick. In: OrganisationsEntwicklung, H. 1, S. 4–9. im selben Heft)

Das ganze läuft auf eine Art “Wissenschaft light” für Unternehmen hinaus - in den Ausbildungsleitfaden?

zur US-Army: Achtung, wer später über die Datenbasis verfügt, die wir alle zusammen tragen!

Kategorien:

* Evidenzbasiertes Management (EbM)
* Ausbildungsleitfaden

[bearbeiten] Inhalt

EbM bedeutet eine Änderung der Denkweise: Weg von der Erfahrung und hin zu wissenschaftlich belegten Fakten.

[bearbeiten] Valide Erkenntnisse im Unternehmen gewinnen

* Verifizierte Annahmen sind jedoch im Praxisalltag nicht leicht zu erstellen:
o die Analyse darf nicht zu viel Zeit kosten
o Die Erwartung prägt die Erkenntnis: wir sehen was wir sehen wollen
* Trotzdem gibt es keinen Ersatz für formale Rückblicke und Evaluationen

[bearbeiten] Auswege aus der wissenschaftlichen Misere

* Erfahrung muss nicht falsch sein
o siehe Qualitative Methoden
o systematische qualitative Beobachtungen sind ebenfalls wissenschaftliche Ergebnisse
* Belegen durch Peer-Review und Daten

[bearbeiten] Anwendung wissenschaftlicher Erkenntnisse

* Zeit nehmen, um Vorgehensweisen zu verändern (siehe Brodbeck2008)
* spezifische Diagnose immer notwendig (”jeder Patient unterschiedlich”)
* Erkenntnisse sollten Teil des Datenspeichers der Organisation werden

Malcolm Gladwell über die Unterscheidung zwischen Puzzle und Rätsel

Saturday, March 15th, 2008

Hier nochmal was zum Thema Gladwell (weil ich damals sein Buch “blink” so kritisiert habe - der Mann ist genial!): meine Zusammenfassung eines (hervorragenden!) Artikels in BrandEins (“Die Hütchenspieler”), der auf die Unterscheidung zwischen Puzzle und Rätsel von Gregory Treverton zurückgeht. Sorry - nur Copy & Paste aus dem Wiki…:

Lit:Gladwell2007
Aus 4CforMedia
Wechseln zu: Navigation, Suche

Link: #Gladwell2007 [[Lit:Gladwell2007|Gladwell, Malcolm (2007): Die Hütchenspieler. In: brand eins, Jg. 07, H. 08, S. 80–91.]]

LiteraturQuellen#Alphabetisch Bib

Der Autor ist Mitarbeiter von “The New Yorker”

[bearbeiten] Relevanz

Der Unterschied zwischen Puzzle und Rätsel ist das ideale Bild, um den Umgang mit Informationen in Projekten zu veranschaulichen. Bisher sind Projekte Puzzle, in denen nicht genügend Informationen vorliegen. Da der PM Entscheidungen treffen muss, bleibt ihm nichts anderes übrig als zu raten. Hat er die gesamte Kommunikation und Information eines Projektes strukturiert vorliegen, kann er sich auf die Analyse verlegen. Er hat dann ein Rätsel vor sich, das er zwar nicht lösen kann (in einem Rätsel gibt es keine „richtige“ Lösung), aber in dem er auf Grundlage von Fakten Bewertungen vornehmen kann. Das ist von jeher die zentrale Aufgabe des Projektmanagements: Idealerweise werden Entscheidungen im Konsens gefällt. Die Vorbereitung ist eine transparente Analyse, die der PM zu leisten hat.

[bearbeiten] Inhalt

Gladwell analysiert die Geschichte des Enron-Skandals. Der Schlüssel seiner Überlegung ist die Unterscheidung von Puzzle und Rätsel, die von Gregory Treverton stammt, einem Experten für nationale Sicherheit:

Definition Puzzle:

* Problem mit eindeutiger Lösung
* wichtige Informationen fehlen
* nur ein Informant mit den fehlenden Informationen kann helfen

Definition Rätsel:

* Problem ohne einfache, sachliche Lösung
* zu viele Informationen
* erfordert Urteilsvermögen und die richtige Einschätzung von Informationen

Der Enron-Manager Jeffrey Skilling wurde im Oktober 2006 zu 24 Jahren Haft verurteilt - wegen Betrugs. Er soll alle Seiten über die tatsächliche Lage des Konzerns getäuscht haben. Tatsächlich stammen alle Fakten und Zahlen, die zu seiner Verurteilung führten, aber aus offen zugänglichen Quellen von Enron selbst. Es waren nur so viele Informationen, dass niemand die wesentlichen Fakten herauslesen konnte. Mithin handelt es sich nach Ansicht des Autors nicht um ein Puzzle, in dem Informationen zurückgehalten wurden, sondern um ein Rätsel, bei dem alle Beteiligten bis zu einem bestimmten Zeitpunkt die etwa 3 Millionen Seiten umfassenden Dokumentation falsch interpretiert hatten. Eine Gruppe von 6 Studenten der Cornell University hatten bereits 1998 die richtige Interpretation geliefert.

[bearbeiten] Zitate

Unterscheidung Puzzle und Rätsel: “Osama bin Ladens Versteck gehört für ihn in die Kategorie Puzzle. Wir finden ihn nicht, weil wir nicht genügend Informationen besitzen. Der Schlüssel zu diesem Puzzle wird wahrscheinlich von jemandem kommen, der Bin Laden nahe steht, und bis wir diese Quelle haben, bleibt Bin Laden auf freiem Fuß. Die Frage, was nach dem Sturz von Saddam Hussein im Irak geschehen würde, war dagegen ein Rätsel. Auf sie gab es keine einfache, sachliche Antwort. Rätsel erfordern Urteilsvermögen und die richtige Einschätzung unsicherer Faktoren. Das Problem liegt nicht darin, dass wir zu wenig Informationen haben, sondern zu viele.”

(Gladwell 2007, S. 82)

Dream Machine - kleine Theorie der künstlichen Intelligenz durch Web 2.0

Sunday, February 24th, 2008

Im TED-Talk “Jeff Hawkins: Brain science is about to fundamentally change computing” berichtet der Computerexperte und Gehirnforscher Jeff Hawkins von einer Hypothese, die er noch nicht beweisen kann: Dem menschlichen Gehirn liegt ein ganz einfacher Mechanismus zugrunde – sequenzielle Speicherung von Ereignissen. Die Intelligenz entsteht seiner Ansicht nach aus der schieren Masse und der Fähigkeit des Gehirns, aus der Menge der Verknüpfungen ständig Voraussagen über die Realität zu interpolieren, indem es patterns (Muster) identifiziert.

Das passt sehr gut zum Konzept der DreamMachine, das ich vor Jahren einmal erstellt habe und damals - 1997 muss das gewesen sein - zusammen mit Marc Pfaff zu einem Zukunftswettbewerb einreichen wollte. Leider wurde unser Beitrag nicht rechtzeitig fertig. Stattdessen habe ich seitdem ungefähr 1000 Menschen davon erzählt, von denen mich die Hälfte für verrückt erklärt hat.

Es ist ein Konzept für ein System, das den Schichten unseres Gehirns eine weitere, digitale Schicht angliedern würde und diese auf dieselbe Weise mit dem Großhirn vernetzt, mit dem sich das Großhirn im Traum mit dem Zwischenhirn vernetzt.

Ich hatte damals zwei Bücher gelesen, aus denen ich mir meine kleine Theorie der Intelligenz zusammengestrickt hatte. Leider bin ich nicht Experte genug, um meine Idee wissenschaftlich zu überprüfen oder gar einzuordnen. Sollte ich hier also Eulen nach Athen tragen oder sich einige Annahmen als unzutreffend herausgestellt haben, bitte ich um Widerspruch. Dafür haben wir das Web 2.0.

Das erste Buch war von Hoimar von Ditfurth und heißt “Der Geist fiel nicht vom Himmel” (damals dtv, vergriffen). Darin beschreibt er die Evolution des Nervensystems vom Einzeller bis zum Menschen als durchgehende Entwicklung. Besonders gut erforscht sind die Gehirne von Geflügel, die sich offenbar sehr gut für Versuche eignen. Vögel besitzen ein voll entwickeltes Zwischenhirn, das nach Aussage von Dithfurth (etwas verkürzt gesagt) einen Kanon von vererbten - und physisch verdrahteten - Programmen bereitstellt, mit denen die Tiere auf ihre Umwelt reagieren. Dabei zeigte sich offenbar bereits seinerzeit eine klar nachvollziehbare Linie vom Schlüsselreiz zur Handlung, mit der die Vögel auf die Umwelt reagieren. Ditfurth unterlegt seine Aussagen mit Unmengen von eindrucksvollen Beispielen, von denen man mir damals gesagt hat, sie seien nicht unbedingt repräsentativ.

Gehirnentwicklung vom Fisch zum Kriechtier

Ein Beispiel ist mir besonders im Gedächtnis geblieben: Ein Hahn steht auf dem Versuchstisch. Sein Gehirn wird an verschiedenen Stellen mit Elektroden stimuliert (was - nota bene - keinen Schmerz verursacht, da die graue Masse nicht schmerzempfindlich ist).

Bei diesen Versuchen hat man unter anderem eine Stelle gefunden, bei der der Hahn den Kopf hebt, kräht, sich dann duckt und eine (leere) Stelle auf dem Versuchstisch attakiert. Lässt man den Reiz weiter bestehen, dann ergreift er die Flucht. Exakt dieses Verhalten kennt man von Hähnen in natürlicher Umgebung: beim Angriff durch einen Bodenfeind, etwa ein Wiesel.

Auch der Schlüsselreiz, der dieses Verhalten triggert (auslöst), ist weitgehend bekannt: ein flaches, längliches Etwas, das sich zügig auf den Hahn zubewegt. Der Hahn reckt sich dann, warnt seine Artgenossen, greift an - und flieht schließlich, wenn der Reiz anhält, d.h. wenn der Hahn erkennt, dass sich das Raubtier nicht in die Flucht schlagen lässt.

Gehirnentwicklung vom Vogel zum Menschen

Da diese direkte Leitung vom Reiz zur Handlung keine besonders große Flexibilität bietet (und daher einige überlebenswichtige Fragen nicht beantworten kann), hat die Natur sich schon beim Geflügel etwas einfallen lassen, das Konrad Lorenz in den 50er Jahren unter dem Begriff Erbfolgeprägung untersuchte: Aus den fest verdrahteten Strukturen des Zwischenhirns ragen “Knospen” heraus - frei programmierbare Zellverbände, die zu einem bestimmten Zeitpunkt in der Kindheit “geprägt”, also programmiert werden. Er untersuchte die Tatsache, dass Graugänse nach dem Schlüpfen ihrer Mutter folgen - ein Fakt, der sich mit der ererbten Verknüpfung von Reiz und Handlung nur schwer erklären lässt - und fand den Beginn des Großhirns. Zellen, die das erste, was die Küken nach dem Schlüpfen sehen, als Mutter interpretieren. Dieser Mutter folgen sie von da an bis zu einem bestimmten Alter. Das Großhirn kann demnach als dynamische Erweiterung statischer, unveränderlicher Programme gesehen werden. Lorenz hängte ihnen, wenn ich mich richtig erinnere, einen Ball an einer Schnur vor die Nase - und sie folgten fortan dem Ball.

Disclaimer: Die Ideen der Verhaltensbiologie von Konrad Lorenz und anderen sind - gerade wenn man Deutscher ist - vorbelastet und daher mit sehr viel Vorsicht zu genießen. Wir sollten aber in der Lage sein, die Ideen dahinter in Ruhe empirisch zu überprüfen und uns gleichzeitig klar und deutlich von den grausamen Taten zu distanzieren, die in ihrem Namen in den Bereichen Euthanasie und Rassenhygiene begangen wurden. Die von Lorenz mitbegründete Verhaltensbiologie scheint sich mittlerweile von diesen Wurzeln entfernt zu haben und sich zu einer anerkannten Wissenschaft entwickelt zu haben - immerhin wurde Lorenz 1973 der Nobelpreis verliehen.

Ditfurth behauptete seinerzeit, aus diesen prägbaren Zellknospen - den “Variablen”, die die “hartcodierten” Programme erweitern - habe sich das Großhirn entwickelt. Das Großhirn ist demnach eine Erweiterung des Zwischenhirns. Die frei programmierbaren Zellen des Großhirns erweitern die Zwischenhirn-Programme und machen sie flexibel. Umgekehrt verleihen die klaren Bewertungs- und Verhaltensstrukturen des Zwischenhirns, das auch beim Menschen noch unter dem Großhirn liegt, den täglich aufgenommenen Informationen des Großhirns sozusagen einen Sinn.

Entwicklung des Großhirns aus dem Zwischenhirn

Abbildung: Die Gehirne von Mensch, Schimpanse, Krähe und Karpfen mit Großhirn und Großhirnrinde (G), Streifenhügel (S), Vorderhirn (V), Zwischenhirn (Z), Kleinhirn (K) und Nachhirn mit Rückenmark (N)

Das zweite Buch hört auf den Titel “Bewußtsein” (herausgegeben vom deutschen Philosophen Thomas Metzinger) und war damals gerade neu herausgekommen. Metzinger stellt (verkürzt gesagt) fest, dass verschiedene wissenschaftliche Fachrichtungen zwar jeweils über eine halbwegs schlüssige Theorie des Bewusstseins verfügen, er als Philosoph aber eine kohärente Theorie vermisse, die alle diese Sichten miteinander verbindet und uns auch intuitiv plausibel erscheint. Besonders interessant fand ich hier - neben Artikeln von Daniel C. Dennett und Patricia S. Churchland, von denen ich vorher noch nie einen Originaltext gelesen hatte, einen Beitrag von Francis Crick und Christoph Koch. In diesem beschreiben sie Bewusstsein als eine Art Oszillation des Großhirns im 40-Herz-Rhytmus - eine Theorie, die sie zwar später widerrufen haben, aber ich fand sie damals sehr erhellend.

Interessanterweise ist offenbar auch Jeff Hawkins durch einen Artikel von Crick auf seine Ideen gekommen.

Soviel zum Hintergrund. Meine Schlussfolgerungen bestanden darin, dass der Blumenkohl, der sich aus der Mutterzelle entwickelt hat, wohl sehr viele Eindrücke speichert. Da der Mensch das meiste davon schnell wieder vergisst, musste es ein Ordnungskriterium geben, das die riesige Menge von Daten sinnvoll verbindet, die uns beim Denken zur Verfügung steht. Dieses Ordnungskriterium musste - wenn die Evolution immer überlebensfähige Zwischenergebnisse brauchte - durch die ursprünglich für Reaktionen verantwortlichen Programme im Zwischenhirn bereitgestellt werden. Genauso wichtig war die umgekehrte Annahme, nämlich, dass man alle anderen Eindrücke langsam wieder vergisst.

Die Frage war nur: Wie genau läuft das ab? Eine endgültige Antwort habe ich nie gehabt, aber es musste etwas in folgender Richtung sein: Jeder kennt Alpträume - diese erinnern sehr an die beschriebenen archaischen Programme, sind aber mit Erlebnissen, Situationen und Gesichtern aus unserer eigenen Erfahrungswelt durchsetzt. Es könnte also sein, dass das Träumen eine Art “Drehen und Wenden” von gespeicherten Sinneseindrücken ist, das im Schlaf dafür sorgt, dass konkrete neue Erlebnisse diesen Zwischenhirnprogrammen auf sinnvolle Weise zugeordnet werden: Die täglichen Eindrücke werden - wie die Teile eines Puzzle-Spiels - solange gedreht und an verschiedene “Andockstellen” der ererbten Programme gehalten, bis sie passen. Dazu müssen sie hierarchisch geordnet, wie Hawkins sie beschreibt, und daher als abstrakte Pattern verwendbar, aber mit Verbindung zu konkreten, erlebten Situationen. Das stimmt mit neueren Informationen, insbesondere über die Informationsverarbeitung in der Sehrinde, wie ich sie bei Christoph Koch gefunden habe, überein (Bewusstsein - ein neurobiologisches Rätsel). Nicht “brauchbare” Erinnerungsfolgen würden dementsprechend vergessen. Nach der Lektüre von Ditfurth, Crick und Koch (und einigen anderen, die Marc Pfaff damals beisteuerte) stand für mich außer Frage, dass es sich dabei um den aktuellen Stand der Wissenschaft handelte. Mittlerweile bin ich mir da nicht mehr so sicher (Input von Fachleuten erwünscht).

Ähnliche Ansätze scheinen mittlerweile auch von ernstzunehmenden Wissenschaftlern vertreten zu werden. So unterscheiden Tooby und Cosmides offenbar zwei Funktionsmodi: einen funktionalen Modus, in dem das Gehirn seine normale Tätigkeit ausübt, um auf die Umwelt zu reagieren und den Organismus durch den Alltag zu manövrieren - und einen organisationalen Modus, in dem das Gehirn im Traum oder beim Spielen Informationen neu anordnet und in einen anwendbaren Kontext bringt.

(Tooby, J. & Cosmides, L.(2001): Does Beauty Build Adapted Fiction and the Arts. Substance, 94/95, S. 6-27, zitiert nach Schwab, Frank (2007): Evolutionäres Denken: Missverständnisse, Trugschlüsse und Richtigstellungen. In: Zeitschrift für Medienpsychologie, Jg. 19, H. 4, S. 140–144.)

Die DreamMachine sollte ein Manko ausgleichen, unter dem bestimmt nicht nur ich leide: ein kolossal schlechtes Gedächtnis und eine langsame Auffassungsgabe. Meiner Erfahrung nach kann man das schlechte Gedächtnis hervorragend kompensieren, indem man sich Sachverhalte mit etwa eintägigem Abstand erneut zu Gemüte führt. Noch besser: wenn man die Inhalte einer Unterhaltung dann nochmal revue passieren lässt, wenn sie einen gerade in einem anderen Zusammenhang interessieren. Leider hat man die Details bis dahin in der Regel vergessen. Es fehlt also ein Mechanismus, der die Eindrücke speichert und mit dem man die relevanten später noch einmal abspielen kann. Der verzweifelte Versuch, sich alles sofort zu merken, indem man es sofort mit anderen Sachverhalten und Erinnerungen vernetzt, führt dagegen vermutlich zur langsamen Auffassungsgabe.

Glücklicherweise hatten sich die frühen Videokamera-Experimente von Frank Zappa und anderen seinerzeit bereits herumgesprochen und Menschen wie der “Cyborg” Steve Mann fingen an, sie mit den Vorzügen des Internets zu kombinieren. Über ihn hatte ich in einem Spiegel-Artikel gelesen.

Steve Manns Versuchsreihe (Foto: Wikipedia)

Steve Manns Versuchsreihe (Foto: Wikipedia)

Mann war damals noch Doktorand am Massachusetts Institute of Technology (MIT). Er rannte mit einer Basketballmütze mit integrierter Kamera herum, filmte alles und “streamte” direkt auf seine Homepage im Internet. Damals hieß das, es wurde alle paar Minuten ein Standbild eingestellt.

Eine der Grundideen der DreamMachine war: würde man einen ständigen Stream mit allem Erlebten speichern (Audio und Video), dann hätte man die Möglichkeit, bestimmte - relevante - Szenen später noch ein oder mehrere Male Revue passieren zu lassen - und sie sich so zu merken.

Das Hauptproblem dabei ist zunächst, die relevanten Stellen wieder zu finden. Das kann man ganz einfach lösen, indem man an bestimmten Stellen (im Video oder außerhalb davon mittels Timestamp gespeichert) eine Art Tag (”täg”, Stichwort “Tagging”) setzt. Dann nimmt man sich in regelmäßigen Abständen die Zeit zum “Träumen” - man geht Tag für Tag durch, sieht sich die Stellen rund um die als relevant markierten Frames an und kombiniert diese mit ähnlichen Stellen aus anderen Zeiten (Aufnahmen von anderen Tagen), die man durch die Eingabe von Stichworten wieder findet, die gleichzeitig zur Verschlagwortung der neuen Videosequenzen verwendet werden.

In verschiedenen “Traumphasen” werden dadurch die Filmsequenzen der “Neuen, digitalen Gehirnschicht” mit den Erinnerungen des Großhirns verknüpft - in einem Prozess, der den Traumphasen des menschlichen Gehirns nachempfunden ist. Das ganze war noch etwas komplexer - mit begehbaren 3D-Stadtmodellen, an denen Bilder aus den Videosequenzen als Texturen auf den Fassaden von Straßen angebracht wurden, so dass man an den einzelnen Sequenzen entlanglaufen konnte und Verknüpfungen als Straßenkreuzungen und Ideen als Plätze dargestellt wurden. Eine frühe Version der Aufbereitung der Idee als Website habe ich 1999 auf CD-Rom bei meinem Bewerbungsgespräch bei Pixelpark vorgestellt. Ich werde sie mal suchen und dann an dieser Stelle verlinken.

Was hat das alles mit Social Software zu tun?

Das Web 2.0 bietet mittlerweile viele Tools, Plattformen und Systeme, mit denen sich ein Konzept wie die DreamMachine umsetzen ließe. Leider ist der Name mittlerweile von anderen belegt. Ich bin auf der Suche nach einem neuen. Vorschläge sind immer willkommen.

Der wichtigste Einwand gegen die DreamMachine war immer: damit steuern wir auf die totale Überwachung zu. Wie ich gerade im Netz herausgefunden habe, hat Steve Mann bereits 2004 (oder noch früher) ein interessantes Gegenmodell der “Sousveillance” in den Raum gestellt, das sich Kritiker erst mal in Ruhe auf dem Cortex zergehen lassen sollten: Er sagt, Surveillance sei (wörtlich übersetzt) ÜBER-wachung (von oben). Steve Mann stellt ihr die Sousveillance (”Unterwachung”) gegenüber: ab jetzt filmt das Individuum zurück! Der Staat soll wissen, dass er von unten ebenfalls kritisch beobachtet wird. Auch das ist eines der Dinge, sie sich mit Social Software in die Tat umsetzen lassen. Packen wir’s an!

Neues zu Trends und Technologien in Richtung Dream Machine: DreamMachine auf del.icio.us/achimbode

Meine eigenen bescheidenen Versuche (Fotos): achimbodes Fotos aus Berlin auf ipernity

Evolutionspsychologie

Wednesday, January 30th, 2008

Lange verpönt, aber in den letzten 40 Jahren als seriöses Paradigma in der Psychologie etabliert: die Evolutionspsychologie würdigt endlich auch beim Denken, dass wir vom Affen abstammen - eine heilige Kuh fällt tot um.

War neulich an der Hochschule der Medien (HdM) in Stuttgart. Wir hatten noch ein bisschen Zeit bis zum Meeting mit unseren Projektpartnern und nahmen die Bibliothek unter die Lupe. Und da machte ich eine Entdeckung: es gibt sie tatsächlich, die Evolutionspsychologie.

Vor kurzem hatte ich noch in einem Seminar eine Folie gebastelt, auf der ein paar durch die Savanne schlendernde Homo habilis (oder besser Homines habilis?) abgebildet waren und daneben eine Serie von Gehirnen – vom Insekt und Lurch über das (in dieser Hinsicht sehr gut erforschte) Geflügelhirn, über Säugetiere hin zum Mensch. Ich wollte illustrieren, dass man im Projektmanagement manche gruppendynamischen Prozesse nur erklären kann, wenn man sich vergegenwärtigt, dass der liebe Gott unser Gehirn für Jäger und Sammler gemacht hat. Selbstverständlich habe ich erwähnt, dass ich dafür – quellentechnisch – nur über Literatur aus den Achzigern verfüge, die seinerzeit auch nicht ganz unumstritten war: Hoimar von Ditfurths „Der Geist fiel nicht vom Himmel“. Bevor ich die Folien zum Download auf den Server gelegt habe, habe ich die Folie dann auch verschämt wieder entfernt.

Vielleicht erklärt das meinen Freuden-Kiekser bei der Entdeckung des Artikels in der Zeitschrift für Medienpsychologie. Frank Schwab weist darin anhand von Quellen nach, dass sich in den letzten vierzig Jahren ein Trend in der psychologischen Forschung nachweisen lässt: weg von der Psyche als hierarchielose, geschlechtsneutrale Tabula Rasa - also der Soll-Beschreibung des politisch korrekten Menschenbildes.

Der Kernsatz lautet: Der “Kampf ums Überleben [bedeutet] keineswegs eine Natur als blutiges Schlachtfeld. Gegen dieses Bild sprach sich schon Darwin aus.” (Schwab 2007, S. 141)

Jetzt ist es also amtlich: auch unser Gehirn stammt vom Affen ab. Willkommen, Wissenschaft, an diesem Punkt. Und: schön, dass man darüber jetzt tabulos darüber schreiben und eindrucksvolle, einleuchtende und sehr, sehr zielführende Bilder an die Wand werfen darf, ohne sich dafür zu schämen. Gerade gruppendynamische Prozesse (und um die geht es im projektmanagement häufig) lassen sich einfach ohne diesen Hintergrund nur schwer erklären. Und wenn man sie nicht versteht und einordnen kann, kann man auch nicht vernünftig damit umgehen.

Literatur: Schwab, Frank (2007): Evolutionäres Denken: Missverständnisse, Trugschlüsse und Richtigstellungen. In: Zeitschrift für Medienpsychologie, Jg. 19, H. 4, S. 140–144.

Von der universellen Wahrheit zum Cluster

Saturday, January 19th, 2008

Man kann über sein Buch “blink” denken was man will (ich persönlich fand es nicht rasend erhellend) - in diesem Vortrag ist er brillant. Anhand der Geschichte seines Freundes Howard Moskowitz - “a man of certain intellectual standards” und “well known as the reinventor of spaghetti sauce” - verdeutlicht er auf erfrischende Weise den Paradigmenwechsel, der sich in der Wissenschaft seit einiger Zeit ereignet: weg von der einen, reinen Wahrheit und hin zu einer Beschreibung der Variation (”The movement from the search for universals to the understanding of variability”):

Video

By the way: I myself happen to be one of those addicts of “extra chunky” sauce and appreciate the outcomes of this kind of research…

Abgesehen davon wird Usability in absehbarer Zeit ein brisanteres Thema werden. Auch die Auswertungen von Trackingdaten werden eine immer größere Rolle spielen - bis hin zur erfolgsabhängigen Bezahlung von Agenturen: nur gut nutzbare, stark frequentierte und von Usern tatsächlich mit Daten gefütterte Websites werden noch gut bezahlt werden. Und die Bewertung dieser Nutzerdaten ist ohne diese Sichtweise der Variationen und “Clusters” nicht denkbar. Denn genau wie bei den geschmacklichen Vorlieben für eine Sorte von Kaffee, Sauce oder Cola gibt es nicht das eine, richtige Nutzerverhalten - es gibt eine ganze Reihe verschiedener Ansätze, sich auf einer Site zu bewegen, je nach Charakter, Tagesform und aktueller Aufgabenstellung.

Als wir Anfang 2006 unsere Interviewreihe mit Projektmanagern in Internetprojekten gemacht haben, haben wir unter anderem diese Frage gestellt: wird es einen Trend zu erfolgsabhängiger Bezahlung bei Webprojekten geben. Die Antworten fielen durchweg negativ aus (meistens wurde uns beschieden, dass das nicht funktionieren könne), so dass wir schon vermuteten, wir hätten mit unserer Frage komplett falsch gelegen. Bei einem Gespräch mit einem hochrangigen Agenturmitarbeiter aus gewöhnlich gut informierten Chefetagen erfuhr ich neulich zu meiner Erleichterung, dass dieser Ansatz derzeit sehr wohl heiß diskutiert werde. Es sei nur noch kein Konsens zur Bewertung der Ergebnisse in Sicht. Vielleicht kann die Sichtweise der Cluster dabei eine Hilfe sein.