juli/august 2 011 6 euro digital - fortiss.org · lauf 3 & 0 26 02 / 96 91 ... hungsmanagement,...

60
6 Euro In Kooperation mit der Gesellschaft für Informatik e.V. Die Zeitschrift für die Informationsgesellschaft Digital Außerdem: Politischer Diskurs in sozialen Netzen Informatik-Graduiertenschulen Conweaver – die Wissensmanager Hochschulstart.de Rich Skrenta 2 011 Juli/August Kern.stück Cloud Computing Mehr Chancen als Risiken? ISSN 2192-3841

Upload: trinhkhue

Post on 17-Sep-2018

213 views

Category:

Documents


0 download

TRANSCRIPT

6 E u r o

In Kooperation mit der Gesellschaft für Informatik e.V.

Die Zeitschrift für die Informationsgesellschaft

Digital

Außerdem: Politischer Diskurs in sozialen Netzen Informatik-Graduiertenschulen Conweaver – die Wissensmanager Hochschulstart.de Rich Skrenta

2 011J u l i / A u g u s t

Kern.stück Cloud Computing Mehr Chancen als Risiken?

ISSN 2192-3841

&0 26 02 / 96 910800 / 100 668 www.1und1.info

1&1 DUAL HOSTING

* 1&1 Dual Perfect 1 Jahr für 0,– €/Monat, danach 9,99 €/Monat. Einmalige Einrichtungsgebühr 9,60 €. 24 Monate Mindestvertragslaufzeit. Preise inkl. MwSt.

Weitere reduzierte 1&1 Dual Hosting-Pakete und weitere Sparangebote unter www.1und1.info

SOMMER-SPECIAL: 1&1 DUAL PERFECT

1 JAHR 0,– €!*

■ 6 Domains inklusive■ 5 GB Webspace■ UNLIMITED Traffi c■ 20 FTP-Accounts■ 1&1 Webanalytics

■ 10 MySQL Datenbanken (je 1 GB) ■ UNLIMITED Click & Build Apps

(Auswahl aus 65 Applikationen, z. B. Joomla!, WordPress, eCommerce, CMS)

■ PHP5, PHP Dev, Zend Framework, Ruby, SSI, git Versionsmanagement

■ NEU: Geo-Redundanz! Maximale Verfügbarkeit durch paralleles Hosting in zwei Hightech-Rechenzentren

■ u. v. m.

&&&&&HOSTINGDER NEUE STANDARD IM

Umweltschonend:Grüner Strom!

Zukunftssicher:1.000 eigene Entwickler!

Maximal sicher:Paralleles Hosting Ihrer Website in zwei Hightech-Rechenzentren an ver-schiedenen Orten!

Superschnell:210 GBit/s Anbindung!

Kein anderer Webhoster überzeugt durch so viel Kompetenz, Know-how und Qualität wie 1&1.

Ausgabe 08/11

DE100020100166_1-1_210x280_39L.indd 1 10.06.11 12:14

www . Digital-Zeitschrift.de

3Vor. LaufText. Anja Arp Digitalk. Der tägliche Videocast auf www.digital-zeitschrift.de

&0 26 02 / 96 910800 / 100 668 www.1und1.info

1&1 DUAL HOSTING

* 1&1 Dual Perfect 1 Jahr für 0,– €/Monat, danach 9,99 €/Monat. Einmalige Einrichtungsgebühr 9,60 €. 24 Monate Mindestvertragslaufzeit. Preise inkl. MwSt.

Weitere reduzierte 1&1 Dual Hosting-Pakete und weitere Sparangebote unter www.1und1.info

SOMMER-SPECIAL: 1&1 DUAL PERFECT

1 JAHR 0,– €!*

■ 6 Domains inklusive■ 5 GB Webspace■ UNLIMITED Traffi c■ 20 FTP-Accounts■ 1&1 Webanalytics

■ 10 MySQL Datenbanken (je 1 GB) ■ UNLIMITED Click & Build Apps

(Auswahl aus 65 Applikationen, z. B. Joomla!, WordPress, eCommerce, CMS)

■ PHP5, PHP Dev, Zend Framework, Ruby, SSI, git Versionsmanagement

■ NEU: Geo-Redundanz! Maximale Verfügbarkeit durch paralleles Hosting in zwei Hightech-Rechenzentren

■ u. v. m.

&&&&&HOSTINGDER NEUE STANDARD IM

Umweltschonend:Grüner Strom!

Zukunftssicher:1.000 eigene Entwickler!

Maximal sicher:Paralleles Hosting Ihrer Website in zwei Hightech-Rechenzentren an ver-schiedenen Orten!

Superschnell:210 GBit/s Anbindung!

Kein anderer Webhoster überzeugt durch so viel Kompetenz, Know-how und Qualität wie 1&1.

Ausgabe 08/11

DE100020100166_1-1_210x280_39L.indd 1 10.06.11 12:14

… auch das hören und sehen Sie bei „Digital“! Vielleicht haben Sie die beiden schon auf unserem Portal unter www.digital-zeitschrift.de entdeckt: Rund fünf Minuten un-terhalten sich die „Digital“-Redakteure Manfred Kloiber und Peter Welchering Tag für Tag zu einem aktuellen Thema aus der IT-Szene. Dafür haben sie jahrelang im Radio on air geprobt.

Die Idee dazu entstand aus einem Dilemma. Als wir das Portal zur Zeitschrift „Digital“ geplant haben, da war zwar klar: Ein Podcast muss her! Denn neben aktuellen neuen Nachrichten im Textformat wollen wir auch täglich frische Informationen, Hintergründe und Analysen multimedial anbieten. Aber mit einem reinem Audio-Podcast kommt man als Webseiten-Anbieter leicht ins Hintertreffen. Denn den können sie ja als RSS-Feed abonnieren, ohne ein einziges Mal bei uns vorbeizusurfen. Das wollen Sie (hoffentlich) nicht und wir schon gar nicht! Damit Sie also nichts verpassen, haben wir uns für ein ganz neues Format entschieden: den Comic-Cast. Eine Animations-Software sorgt da-für, dass der Digitalk auch optisch interessant wird.

Jetzt talken unsere beiden real-virtuellen Redakteure täglich, von unterschiedlichen Moderatoren an- und abgesagt. Die ersten Reaktionen sind bislang recht positiv. Denn der Digitalk ist wirklich mal was ganz Neues und entspricht im Design der aktuellen Netz-Kultur. Schauen Sie doch einfach mal rein bei www.digital-zeitschrift.de.

Anja ArpCvD

Was zwischen den Heften alles so passiert …

Täglich als Comic-Cast auf www.digital-zeitschrift.de

zu sehen und zu hören. Der Digitalk mit Manfred Kloiber

und Peter Welchering.

4 Log. buch

In Kooperation mit der Gesellschaft für Informatik e. V.

Inhal t Ju l i/August 2011

Die Zeitschrift für die Informationsgesellschaft

Neu.heitenProdukte und Technologien aus der IT-Welt 6

De.batteWie facebook und twitter Diktaturen das Fürchten lehren 8

Netz.blickGoldsuche im Netzrauschen 11

Labor.blickConweaver – Semantiker schürfen nach Wissensquellen 12

Kern.stückCloud Computing 14

Res.pektEin Plan für Ouagadougou 28

Auf.satzGibt es ein Grundrecht auf Internet? 30

Lern.zeit 1Graduiertenschulen für die Informatik 32

Lern.zeit 2Von Frameworks und Soft Skills 35

Hand.buchUnternehmenssoftware auf dem Smartphone 36

Aus.sichtenVom Schreibtisch in den Operationssaal 40

Quer.KöpfeRich Skrenta – von einem, der auszog das Web zu vermessen 46

IT.werkerInitiative Softwarecampus 49

Plan.spielZwischenstopp für Hochschulstart.de 50

Spiel.zeugÜberflüssig, aber „nice to have“ 54

Nach.spielXcode – die Sendung mit dem Mac 56

Non.DigitalAbstruse Ideen aus der analogen Welt 58

stan.dardsVor.lauf 3; Vor.schau/Im.pressum 58

8

50

32

14

von ihrem eigenen Wachstum überholt.“ Die Geschäfts­organisation drohte auf der Strecke zu bleiben, die an­fangs genutzte Software hielt der Expansion nicht stand. „Wir brauchten eine neue betriebswirtschaftliche Soft­ware, möglichst eine vollwertige ERP­Lösung. Wichtig war uns, dass wir online darauf zugreifen können und dass sie mit unserem Unternehmen mitwächst. Wir wollten nicht in fünf Jahren wieder eine neue Software suchen müssen, nur weil wir zu schnell wachsen.“ SAP Business ByDesign erfüllt alle ihre Anforderungen, deckt die wesentlichen betriebswirtschaftlichen Prozesse ab und vereint außer­dem die Funktionen für die Finanzbuchhaltung, den Ein­kauf und die Personalwirtschaft mit einem Kundenbezie­hungsmanagement, einer Projektverwaltung und leicht zu bedienenden Analysewerkzeugen.

Implementierung selbst gemachtNach der Entscheidung für die On­Demand­Lösung SAP Business ByDesign ging alles ganz schnell: Vier­zehn Tage später verlief der erste Test erfolgreich, nach vier Wochen arbeiteten bereits alle Mitarbeiter mit der neuen Software. Einer der Geschäftsführer der Bestsidestory nahm die Implementierung selbst in die Hand: „Wer ein biss­chen Erfahrung in der IT hat, kann das. Und wer Hilfe braucht, kann auf die Kundenberater von SAP bauen“, erklärt Kerstin Schilling. Die Implementierung läuft wie die Software selbst online über den Webbrowser. Nach dem Log­in kann der Kunde genau die Anwendungen auswählen, die er für sein Unternehmen bracht. Sämtli­che Module sind bereits vorkonfiguriert: Umfangreiche Reports und Analysen, ein durchgängiges Lieferan­tenmanagement oder Tools für ein effizientes Projekt management. Ein innovativer Weg, um eine Unterneh­menssoftware schnell und einfach startklar zu machen.

Kreative OrganisationUnd noch einen Vorteil sieht Kerstin Schilling: Das SAP­System gibt einen Rahmen vor, die Daten werden immer nach dem gleichen Prinzip eingegeben. „So können auch wir kreativen Köpfe nicht vom System abweichen und haben immer eine feste Organisationsstruktur. Alles bleibt übersichtlich.“ Alle Mitarbeiter greifen auf eine zentrale Datenbasis zu – so verfügt jeder stets über ak­tuelle, einheitliche Informationen. Die Implementierung sorgt gleichzeitig dafür, dass Un­ternehmen ihre eigenen Strukturen überdenken. Pro­

SAP Business ByDesign:

Mit allen Daten unterwegs„Wir steuern unsere Unternehmensprozesse über das Internet – mit SAP Business ByDesign. Das ist für uns ideal: Wir müssen uns um nichts kümmern und kommen immer und überall an unsere Daten.“

Kerstin Schilling, Geschäftsführerin der Online-Agentur Bestsidestory.

ANZEIGE

Wenn Kerstin Schilling auf Roadshows, Messen oder Netzwerkkonferenzen ist, hat sie ihre Unternehmens­software immer dabei. „Wir sind eine Agentur für Online­Marketing. Eine Software­Lösung, auf die wir nicht online zugreifen können, ist für uns schlicht undenkbar“, begrün­det sie ihre Entscheidung für SAP Business ByDesign. Der Geschäftsführerin von Bestsidestory geht es wie vielen: Rund um die Uhr erreichbar zu sein, ist selbstverständ­lich geworden, der ständige Zugriff auf betriebswirt­schaftliche Unternehmensdaten praktisch Pflicht. „Ich möchte jederzeit und von jedem Arbeitsplatz aus alle Informationen überblicken. Wenn ich im Kundenauftrag mehrere Tage unterwegs bin, muss ich die aktuellen und wichtigsten Kennzahlen wissen und aus dem Stegreif neue Projekte kalkulieren können.“ Damit folgt Kerstin Schilling einem allgemeinen Trend: Laut einer aktuellen Umfrage des Hightechverbands BITKOM war für knapp die Hälfte der IT­Entscheider Software as a Service eines der zentralen Themen in die­sem Jahr. Mit dem Umstieg auf die On­Demand­Lösung sparen Unternehmen bares Geld: Ein Internet­Zugang genügt, um auf die ERP­Lösung zuzugreifen. Kosten für Wartung und Pflege entfallen, denn die Unternehmens­software liegt auf einem zentralen Server im Hochsi­cherheitsrechenzentrum von SAP. Dort kümmern sich Experten rund um die Uhr um das System, mehrmals täglich werden Daten gesichert und auch die Upgrades durchgeführt – alles zum Festpreis.

Die Lösung wächst mit „Wir sparen uns teure Hardware und müssen uns um fast nichts kümmern“, zeigt sich Kerstin Schilling zufrieden. Mit drei Geschäftspartnern gründete sie vor vier Jahren ihre Agentur für europäisches Online­Marketing. Inzwi­schen hat sie an den Standorten Leipzig und Berlin 15 Angestellte.„Es war bei uns wie bei vielen jungen Unternehmen: Vier Menschen mit viel Know­how und Enthusiasmus bauen zusammen eine Marke auf. Und irgendwann werden sie

Einstiegspakete für den MittelstandDer schnelle Einstieg in SAP Business ByDesign ge­lingt mit den Einstiegspaketen von SAP. Unterneh­men profitieren von einem klar definierten Funk­tionsumfang und halten Kosten und Zeitaufwand gering. Bewährte Geschäftsprozesse für die eigene Branche ab 79 € pro Monat und User runden das On­Demand­Angebot ab.

Weitere Informationen unter: www.sap.de/businessbydesign

Die umfassenDe On-DemanD-Lösung für Den mitteLstanD.

ErfahrEn SiE mEhr: www.sap.de/businessbydesign

Kerstin Schilling, Geschäftsführerin von Bestsidestory ist von der neuen On­Demand­Lösung von SAP überzeugt.

jekte werden den einzelnen Mitarbeitern zugeordnet, Zeit und Dienstleistungen lassen sich einfach erfassen. „Heute sehen wir auf einen Blick, wie lange wir für die Or­ganisation und Durchführung eines Projekts gebraucht haben und welche externen Kosten angefallen sind. Frü­her mussten wir das mühsam in einzelne Tabellen tippen und zusammenfügen.“ Das spart Zeit und Geld, schließlich muss keiner mehr dem Controlling zuarbeiten, auch die Buchhaltung und Zeiterfassung sind dank vorkonfigurierter Prozesse in kürzester Zeit fertig. Jeder Mitarbeiter kann sich auf sei­ne Kernkompetenzen konzentrieren. Kerstin Schilling ist zufrieden: „Das System ist sehr anwenderfreundlich. Un­sere Mitarbeiter konnten auch ohne lange Schulungen schnell damit arbeiten – und die Schulungen, die nötig waren, sind alle im Preis enthalten.“

6 Neu. heiten Text. Heinz Schmitz

Neue Software für Batterie-Design

durch einen elektrolytgefüllten Separator getrennt sind. Beim Laden und Entladen der Batterie werden Lithium-Ionen zwischen den Elektroden ausgetauscht. Die Leistungsfähigkeit der Batterie hängt dabei von den verwende-ten Materialien der Komponenten ab. Diese müssen miteinander harmonieren. Mit der Software lassen sich unterschiedliche Ma-

terialkombinationen simulieren, um die geeignete Zusammensetzung herauszufinden.

Den Forschern ist es gelungen, die komplette Batteriezelle sowie Transport- und Reaktionsvor-gänge der Lithium-Ionen sowohl auf makroskopischer als auch auf mikroskopischer Ebene dar-zustellen. Indem die Struktur der Elektroden räumlich aufgelöst und dreidimensional dargestellt wird, lassen sich Parameter wie Kon-zentrationsverhältnisse der Lithi-um-Ionen, Elektrolytkonzentrati-on und Stromdichte berechnen. Die Berechnungen erfolgen mit einem speziellen Finite-Volumen- Verfahren. Die BEST-Software soll sowohl Automobilproduzenten als auch Akkuhersteller dabei unter-stützen, stabile und sichere Bat-terien mit höherer Reichweite und zugleich verbessertem Beschleu-nigungsverhalten zu bauen.

www.itwm.fraunhofer.de

Bis 2020 sollen eine Million Pkws mit Elektroantrieb auf deutschen Straßen fahren – so will es die Bundesregierung. Laut einer ADAC-Umfrage würden auch 74 Prozent der Bundesbürger mitzie-hen. Wäre da nicht das Problem mit der Batterie …

Eine neue Software des Fraun-hofer-Instituts für Techno- und Wirtschaftsmathematik ITWM in Kaiserslautern soll bei der Ent-wicklung leistungsfähiger Batte-rien helfen. BEST, kurz für Battery

and Electrochemistry Simulation Tool, simuliert Lithium-Ionen-Ak-kumulatoren, um neue Entwick-lungskonzepte schneller überprü-fen zu können.

Ein Lithium-Ionen-Akku besteht aus zwei porösen Elektroden, die

So stellt die Simulations-software BEST eine Batterie mikroskopisch dar. Rechts und links sind die porösen Elektroden zu sehen.

Grafik: fraunhofer itWM

Robuster Nano-Industriecomputer

In der industriellen Fertigung geht es manchmal rau zu – da dür-fen die PCs nicht allzu empfindlich sein. Deshalb müssen sie aber noch lange nicht hässlich sein. Der Nanobox-Industriecomputer ist gerade einmal so groß ist wie eine Milchtüte. Er benötigt in Schalt-schränken von Industrieanlagen weniger Platz und spart Kosten, weil kleinere Schränke eingesetzt werden können. Der Siemens Nanobox-PC erhielt für sein innovatives Design den renommierten iF product design award.

Der Nanobox-PC Simatic IPC227D arbeitet mit Atom-Prozessoren von Intel. Sie haben einen geringen Stromverbrauch und produ-zieren kaum Abwärme. Der Computer kommt ohne Lüftung aus und kann praktisch überall eingebaut werden. In der Grundkon-figuration ist der 19 × 10 × 6 Zentimeter kleine Rechner vollkom-men wartungsfrei: Statt einer konventionellen Festplatte werden temperaturbeständige Compact-Flash-Karten mit bis zu 8 Gigabyte oder Solid-State-Disks („Flash-Festplatten“) mit mindestens 50 Gi-gabyte Volumen verwendet. Außerdem sind die Bios-Set-up-Daten magnetisch gespeichert, sodass keine Puffer-Batterie nötig ist.

Den kompakten Rechner gibt es auch als Nanopanel-PC mit hoch-auflösenden Industrie-Touchdisplays mit 18, 23 oder 31 Zentimeter (7“, 9“ oder 12“) Bildschirm-Diagonale. Auch diese Bildschirme verbrauchen besonders wenig Strom, da ihre LED-Hinterleuchtung vollständig gedimmt werden kann.

Siemens fertigt und entwickelt im Werk Karlsruhe von der Haupt-platine bis zum Gehäuse alle Einzelteile der Rechner selbst.

www.automation.siemens.com/mcms/automation/de

Geräte der Produkt-familie Industrie-PCs: Nanobox-PC Simatic IPC227D und Nanopanel-PC Simatic HMI IPC277D sind kompakte und stromsparende Industrie-PCs im Nano-Format.

foto

: Sie

Men

S

7Neu. heitenInnovationen. Interessante Hard- und Software-Produkte

Smart Meter spart Energiekosten

„Intelligente Stromzähler“ werden in Deutschland seit letztem Jahr sukzessive eingeführt. Der Kunde soll – so will es die EU – Durchblick bei seinem Stromverbrauch bekommen.

Mit einem „Smart Meter“ kann er Energie effektiver nutzen und bares Geld sparen. Smart Metering ist zwar im Energiewirt-schaftsgesetz vorgeschrieben, aber in der Öffentlichkeit noch nicht angekommen. Allein bei Privathaushalten könnten durch die Einführung von zeitabhängigen Tarifen und eine Visualisie-rung des tatsächlichen Energieverbrauchs nach konservativen Schätzungen 9,5 Terawattstunden pro Jahr gespart werden. Das entspricht mehreren Kohlekraftwerken oder ungefähr einem Block eines Kernkraftwerkes.

Ein „Smart Meter“, das einfach in das Heimnetzwerk integrierbar ist, stellt die Aachener devolo AG vor. Das Unternehmen greift bei der IQ-Smart-Metering Lösung für die Verteilung der Daten auf die bekannte Powerline-Technologie zurück. Die Zählerdaten werden so über das Strom-netz im Haus verteilt. In Zusammenarbeit mit dem Energieversor-gungsunternehmen können die Verbrauchsdaten auch direkt an die Abrechnungsstelle übermittelt werden, damit die im Gesetz geforderten exakten Abrechnungen erstellt werden können. Um die Datensicherheit beim Transfer zu den Energielieferanten zu gewährleisten, wird unter der Federführung des Bundesamt für Sicherheit in der Informationstechnik (BSI) ein Schutzprofil für Smart Metering entwickelt.

www.devolo.de/business/smart-metering.html?l=de

Die Daten eines „Smart Meter“ müs-sen im Haus und zum Energieversor-ger verteilt werden.

Gr

afik

: D

evo

lo a

G

www.itandbusiness.de

20.– 22.09.2011MESSE STUTTGART

mob

il.m

esse

-stu

ttga

rt.d

e/it

-bus

ines

s

Fachlicher TrägerIdeeller Träger

MIT BODENHAFTUNG IN DIE CLOUD –IT FÜR BESSERES BUSINESS.

RZ_IT&Business2011_Anz_Digital_210x95_Layout 1 10.06.11 16:20 Seite 1

8 De. batte Text. Frank Überall

Ali Yavar demonstriert mit Freunden regelmä-ßig in deutschen Großstädten. Der 29-Jährige kommt aus dem Iran, lebt jetzt in Köln und studiert Maschinenbau. Bei Protestmärschen ist ein Mobiltelefon sein ständiger Begleiter. „Wir bleiben über facebook und twitter in Kon-takt mit den unterdrückten Bürgern in unserer Heimat“, erzählt Yavar. „Wir tauschen Videos von unfassbaren Übergriffen der staatlichen Sicherheitskräfte aus und informieren uns mit kurzen Texten.“ Soziale Netzwerke werden so immer mehr zum Instrument der Gegenöffent-lichkeit. Was auf solchen Portalen publiziert wird, breitet sich minutenschnell über den Erd-ball aus. Diktatoren wie Demokraten müssen sich an das neue Instrument moderner Kom-munikation erst gewöhnen.

Der Grundton der digitalen Gesellschaft wird bestimmt von einem ständigen Herumschwir-ren mehr oder weniger relevanter Informati-onen. Da erzählt jemand, was er zu Abend gegessen hat. Ein anderer berichtet, welche Gräueltaten es unter totalitären Regimes gibt. Dümmliches und Dramatisches liegen nur ei-nen Klick weit auseinander. Amnesty Interna-tional berichtet, die Revolutionen in Ägypten oder in Libyen seien teilweise über soziale Netzwerke organisiert worden. Experten ver-gleichen die Digitalisierung der Kommunika-tion mit der Erfindung des Buchdrucks oder Telefons.

Auch wenn in Krisengebieten nicht jeder Zu-gang zum Internet hat: Die Kommunikation digitaler Art ist prinzipiell einfacher, freier und schneller geworden. Staatschefs müs-sen schon das Internet komplett zensieren oder abschalten, um ungewollte Nachrichten-ströme zu verhindern. Das wiederum toleriert die Netzgemeinde nicht, schnell würde eine internationale Debatte starten. Wer sich mit den Usern anlegt, erntet quasi genauso viel Protest wie derjenige, der einen Diplomaten

beleidigt. Der Traum von der Anwendung von Macht durch Bürger und Gruppen rückt in greifbare Nähe.

Bilder bewegenEs sind gerade die Bilder, die Emotionen hoch-kochen lassen: Bilder, die traditionelle Jour-nalisten kaum liefern können oder dürfen. In Ägypten wurden die Proteste dadurch ange-heizt, dass User Videos online stellten, auf denen die demonstrierende Menge zu sehen war. Der Fernsehsender Al Dschasira strahlte diese Bilder aus, in der Hauptstadt Kairo wur-den sie auf eilig errichtete Großleinwände ge-worfen: So wussten die Demonstranten, dass sie nicht wenige sind, sondern wirklich viele. Dass sich der Protest lohnt. In Tunesien waren es Online-Videos von einem Protestierenden, der sich selbst angezündet hatte, die größere Kundgebungen auslösten. Und ohne die Bilder aus der Heimat würden auch der Deutsch-Ira-ner Ali Yavar und seine Freunde hierzulande

nicht so regelmäßig gegen die Repressionen in ihrer fernen Heimat auf die Straße gehen.

Die Macher etablierter Medien richten sich auf diese Situation ein: Bei Al Dschasira arbeiten Journalisten, die auch die sozialen Netzwerke nach Informationen und Bildern durchforsten und mit Usern kommunizieren. Das deutsche Portal Spiegel Online hat Ende März zwei Re-dakteursstellen speziell für „Social Media“ ein-gerichtet, die eine ähnliche Aufgabe haben.

Die Zeit scheint bald vorbei zu sein, in der es meist Journalisten, Politikern und Staaten-lenkern vorbehalten war, Debatten zu struktu-rieren oder zu führen. Vermittelt über Massen-medien, gelang es außerparlamentarischen Gruppen nur selten, ein Thema auf die Agenda zu bringen. Nun haben die traditionellen Ge-stalter der Öffentlichkeit Teile ihrer Deutungs-hoheit eingebüßt.

Auf die Bühne der gesellschaftlichen Kommu-nikation drängt der Bürger als partizipatives Element der digitalen Ära. Bundeskanzlerin Angela Merkel versucht auf dieser Bühne mit ihrem Video-Podcast einen Platz zu finden, Regierungssprecher Steffen Seibert probiert es mit twitter-Nachrichten, andere Politiker nutzen facebook – nicht zuletzt, nachdem der US-amerikanische Präsidentschaftskandidat Barack Obama Aufsehen damit erregte, erfolg-reich weite Teile seines Wahlkampfes über so-ziale Netzwerke im Internet zu führen.

Dabei bewegen sich viele Machthaber in den sozialen Netzen noch unbeholfen. „Der per-sönliche Kontakt mit dem Wähler ist ja für ei-nige gar nicht so erstrebenswert“, erklärt die Kommunikations-Professorin Caja Thimm von der Universität Bonn. Soziale Netze nur als PR-Tool zu nutzen, reiche nicht aus: „Es kommt auf die Gemeinsamkeit an. Da muss man auch ertragen, wenn Kritik kommt. Ein kluger Poli-

Revolution per Handy – wie facebook und twitter Diktaturen das Fürchten lehrenFrüher war der Dorfplatz der zentrale Kommunikations-Ort. In der modernen digitalen Gesellschaft ist Kommunikation quasi unabhängig von Zeit und Ort geworden. Damit entstehen ganz neue Formen der gesellschaftlichen Partizipation.

„Was soll das?“Twitter, facebook & Co. sind bei vielen Unter-nehmen noch Fremdworte. Das geht aus einer Studie der dpa-Tochter news aktuell hervor, die Anfang Mai öffentlich vorgestellt wurde. Nur jede vierte Pressestelle fühlt sich in Sachen so-ziale Netzwerke „gut“ oder „sehr gut gerüstet“. Bei Verwaltungen und Verbänden sind es sogar nur 18 Prozent. Selbst Journalisten haben die Chancen der digitalen Kommunikation kaum er-kannt: „Einige Erfahrung“ haben laut Studie nur 46 Prozent der Pressevertreter. Viele Unterneh-men verfolgen noch nicht einmal, was über sie in sozialen Netzwerken berichtet wird. Für die Untersuchung waren mehr als 5000 Fach- und Führungskräfte aus PR-Agenturen, Pressestellen und Redaktionen befragt worden.

www . Digital-Zeitschrift.de

9DE. batteProtest. Soziale Netzwerke verändern den politischen Diskursfo

toS:

Sh

utter

Sto

ck

10 De. batte Text. Frank Überall

tiker kann fast schon eine Art Marktforschung machen, der Bürgerschaft ein Stück weit ins Herz gucken.“

Im Herz vieler Menschen in undemokratisch regierten Ländern der Welt werden Beobach-ter vor allem Wut entdecken. „Die Nachrich-ten über facebook oder twitter berühren uns viel emotionaler als ein einfaches Telefonat“, berichtet Ali Yavar. „Bilder oder Videos sind eindrucksvoller als bloßer Text.“ In Gruppen versammeln sie sich virtuell: die bekanntes-ten Informanten gelten dort als verbindende Knotenpunkte der Glaubwürdigkeit. Wen ich – zumindest indirekt – kenne, dem vertraue ich: vielleicht noch mehr als einem Journalisten.

Moderner DorfplatzEinst fanden öffentliche Diskussionen auf dem örtlichen Dorfplatz statt, dann bestimmten neue Informationsträger die Kommunikation: Der Sozialwissenschaftler Jürgen Habermas hatte schon angesichts der zunehmenden Ver-breitung kommerzieller Massenmedien einen „Strukturwandel der Öffentlichkeit“ beschrie-ben. Prinzipien der Auswahl von Themen, über die ein gesellschaftlicher Diskurs statt-findet, fielen vor allem den Medienvertretern zu. Langsam, aber sicher verändert sich die-se Struktur nun erneut. Das Netz gewinnt an kommunikativer Macht.

Blogger wie der Russe Alexei Nawalny wer-den den formal Mächtigen in Staat und Un-ternehmen immer gefährlicher. Nawalny pran-gert in seinen regelmäßigen Online-Berichten die Verschwendung öffentlicher Gelder an. Er ruft dazu auf, staatliche Ausschreibungen von Aufträgen zu melden, bei denen Manipulati-onsgefahr besteht. So will er dem in Russland allgegenwärtigen Verdacht der Korruption entgegentreten und Kriminellen mithilfe di-gitaler Öffentlichkeit das Handwerk legen. Er hat sich bewusst für diesen Weg entschieden. Ein Engagement in einer politischen Partei kommt für Alexei Nawalny nicht infrage, sagte er gegenüber der deutschen Tageszeitung

„Die Welt“: „Mein Plan ist, ihnen meine Agen-da aufzudrängen und für wirkliche Verände-rungen zu sorgen.“

Natürlich ist ein solcher Einsatz nicht unge-fährlich. Die so Angegriffenen versuchen, ihre Macht auszuspielen, um unliebsame Kritiker auszubremsen. Sie wollen die Hoheit über In-formationen und Deutungen nicht verlieren. In manchen Regionen der Welt sei „der freie Aus-tausch von Informationen und Meinungen im Internet für Blogger und Nutzer sozialer Me-dien lebensgefährlich“, meint dazu der Inten-dant der Deutschen Welle, Erik Bettermann. Immer häufiger werde auch mit technischen Mitteln versucht, kritische Kommunikation im Netz einzudämmen. So sei beispielsweise in China das Internet „aufgrund der digitalen Mauer zu einem nationalen Intranet mutiert“.

Wettlauf der Medien Letztlich drängt das Internet als schnelles Nachrichten- und Informationsmedium aber unaufhaltsam immer weiter ins kollektive Bewusstsein. Klassische Medien können den Wettlauf nicht mehr gewinnen. Beispiele da-für gibt es in der jüngeren Vergangenheit zu-hauf. So meldete ein User des Kurznachrich-tendienstes twitter als Erster die Tötung von Osama bin Laden. Schon im Januar 2009 war es ebenfalls ein twitter-Eintrag, der weltweit

bekannt machte, dass ein Passagierflugzeug auf dem Hudson River mitten in New York not-landen musste. Der entsprechende User hatte ein Foto online gestellt, das von vielen Medien genutzt wurde, außerdem war er für manche der erste Interviewpartner als Augenzeuge.

Den kommunikativen Super-GAU erlebten vor allem deutsche Tageszeitungen nach dem Tsu-nami in Japan. An einem Samstagmorgen um 6.29 Uhr MEZ wurde die erste Kernschmelze aus Fukushima gemeldet. Im Laufe des Ta-ges folgten Nachrichten über Evakuierungen, Explosionen, Reisewarnungen und erste Anti-Atom-Demonstrationen. Gedruckt konnte man das – außer in den wenigen Sonntagszei-tungen – erst zwei Tage später lesen.

Selbst in den Redaktionen elektronischer Medien wird der niemals endende Informa-tions-Rohstoff aus dem WWW inzwischen sehr ernst genommen. Die Macher etablierter Medien kennen die Chancen dieser digitalen Vernetzung. Bei tagesschau.de werden nach Angaben von Jörg Sadrozinski soziale Netz-werke gezielt nach Informationen und Videos durchforstet. Der bisherige Chef der Online-redaktion, der sein Wissen künftig als Leiter der Deutschen Journalisten Schule weitergibt, beobachtet eine höhere Aufmerksamkeit für Themen aus Krisengebieten durch soziale Netzwerke: „In bestimmten Ländern ist es uns nicht möglich zu berichten.“ Notfalls werden dann sogar Blogger per Skype in die Tages-schau geschaltet – das Flaggschiff öffentlicher Information im deutschen Fernsehen.

Amateurbilder ergänzen dazu die Berichte der ARD auf dem Sender und im Netz. „Der Journalist hat heute die zusätzliche Aufgabe, digi tale Quellen zu recherchieren, zu bewerten und einzuordnen“, erklärt Sadrozinski. Ali Yavar hofft, dass bald auch Bilder seiner Freunde aus dem Iran eine solche Relevanz bekommen.

www.slideshare.net/newsaktuell/social -

media-trendmonitor-kurz

Eine Demonstration von Exil-Iranern in Köln. Per Smartphone halten die Dissidenten ständig den Kontakt zu ihren Landsleuten.

foto

: fr

an

k Ü

ber

all

www . Digital-Zeitschrift.de

11

Menschen, die ganz genau wissen, was sie wollen, haben es leicht – auch im Netz. Wer da zum Beispiel ganz konkret benennen kann, wo-nach er sucht, dem schaffen Google und Bing in Sekundenbruchteilen Antworten herbei. Je konkreter die Suchanfrage ist, umso besser, und das klappt auch bei „brandheißen“, ganz aktuellen Entwicklungen – die Suchmaschinen-Spider klappern die großen Nachrichtenseiten mittler-weile im Minutenrhythmus ab.

Für Menschen, die nicht so ganz genau wissen, was sie wollen, ist alles etwas komplizierter – auch im Netz. Denn mit der Fragestellung „was passiert gerade, worüber wird gerade gesprochen und was ist davon für mich persönlich interessant?“ kann man einer Suchmaschine nicht kommen – noch nicht. Dabei ist eine solche „unkonkrete“ Erwartungs-haltung mittlerweile nicht mehr die Ausnahme, sondern völlig normal – für alle jedenfalls, die das Internet als zentrales Informationsmedium nutzen.

Theoretisch ist das aktive Suchen ja ohnehin überholt, ganz im Sinne der legendär gewordenen Formulierung eines amerikanischen College-Studenten aus dem Jahre 2008: „Wenn eine Nachricht wirklich wichtig ist, wird sie mich finden.“ Eine der vielen möglichen Interpretationen des Ausspruchs: Die Information wird dann irgendwann über facebook oder twitter hereinkommen – und das eben nicht nur, wenn sie einfach populär ist, sondern auch dann, wenn ein Bekannter denkt, sie könnte interessant für einen sein.

Die Multiplikations- und die Filterwirkung der sozialen Netzwerke er-zeugt also automatisch ein zusätzliches Relevanzkriterium; gewisser-maßen ein personalisiertes „Relevanz-Tag“ zu einer Nachricht. In der Tat bietet sich damit der vielversprechendste Ansatz, den „unkon-kreten“ Zugriff auf (vermutlich …) relevante Informationen und Themen-felder im Netz einigermaßen automatisiert und strukturiert in den Griff zu bekommen.

Ein Kandidat für Verbesserungen wäre ja der RSS-Newsreader, nach wie vor das Mittel der Wahl, um sich zumindest schnell einen Über-blick zu verschaffen. Normalerweise sieht man dort nur Nachrichten aus Quellen, die man abonniert, also vorher explizit ausgewählt hat. Zusätzliche RSS-Feeds aus twitter und facebook bringen zwar theo-retisch den erwünschten Blick über den Tellerrand – aber egal ob bei den grafisch nett gemachten Applikationen wie Flipboard oder Pulse für das iPad oder bei Web-Lösungen wie Google Reader und Varianten: Al-les läuft hier nebeneinander her, es fehlt die thematische Gruppierung – die auf einen Blick klarmachen könnte, welche Nachrichten gerade „heiß“ sind, wo Beziehungen zwischen verschiedenen Netzquellen be-stehen, worüber möglicherweise gerade in Blogs diskutiert wird. Se-mantisches Clustering ist aber ganz und gar nicht trivial; die zusätzliche „Würzung“, sprich die Gewichtung mit Relevanz-Indikatoren aus dem „social graph“ erst recht nicht. Der Newsreader Fever, den man sich auf einem Webserver installieren muss, erkennt und sortiert Themen wenigstens dann, wenn verschiedene Quellen untereinander verlinkt sind. Das interessante Projekt „Tattler“, eine Drupal-Anwendung, die ebenfalls auf einem eigenen Server eingerichtet werden muss, scheint bedauerlicherweise eingeschlafen zu sein.

Soll ein „intelligenter“ News-Sammler nicht nur als private Webserver-Anwendung für wenige Personen, sondern als öffentlicher Web-Service laufen, dann drohen zudem sehr schnell massive Server-Kapazitäts-probleme. Das von der deutschen Web-Community als Nachfolger des Blog-Aggregators Rivva herbeigesehnte Newshype.de scheint zumin-dest keine „leichte Geburt“ zu sein; ambitionierter und weiter ist man beim amerikanischen Xydo.

Die neuen Aggregatoren werden dringend gebraucht – und sind eigent-lich schon von Anfang an chancenlos: Während die Neuankömmlinge an Bewertungsalgorithmen herumschrauben, eigene Bots auf die Reise schicken oder APIs anzapfen, haben Google und Bing schon längst alles Nötige beisammen – auch für Surfer ohne konkrete Suchanfrage.

Was heißt hier relevant?Von News-Aggregatoren, Social-Media-Tools und dem Aufstöbern nützlicher Informationen im Web.

foto

: Sh

utter

Sto

ck

Netz. BlickText. Michael Gessat INFORMATIONEN. GOLDSUCHE IM NETZRAUSCHEN

12 Labor.Blick Text. Thomas Kamps*

Semantiker schürfen nach WissensquellenSo einfach wie Google, aber viel strukturierter – das Fraunhofer-Spin-off Conweaver erschließt punktgenau betriebliche Wissensressourcen. Für den Innovationsprozess verlassen sich die Darmstädter auch auf die Hilfe forschungsgetriebener Institutionen.

verwandte Themen, und Recherchen lassen sich individu-ell erweitern oder einschränken. Das System begleitet den Nutzer mit Navigations- und Suchhilfen bis zum gewünsch-ten Ergebnis.

Nun wissen wir alle, dass auch aus externen Internetquel-len relevante Inhalte sprudeln – und deshalb binden wir diese in das Netz ein mit der sogenannten Semantic Enter-prise Search. Die hat branchenübergreifend den entschei-denden Vorteil, dass sie heterogene Datenquellen in einem Wissensnetz verbindet. Mithilfe eines Modulbaukasten-systems schaffen wir eine maßgeschneidert konfigurierte Plattform, die wertvolle Informationen mit wenigen Klicks findet und anzeigt.

Kernexpertise von Conweaver ist also die automatische Vernetzung von Unternehmensdaten sowie die seman-tische und mehrsprachige Suche. Unser Ziel ist die stetige Entwicklung emergenter Software – diese soll sich dyna-misch und flexibel mit Komponenten anderer Hersteller zu

Das menschliche Auge verarbeitet Bilder besser als un-strukturierte Textlisten – plötzlich werden ungeahnte Zu-sammenhänge sichtbar. Warum also nicht detailliertes be-triebliches Wissen zu einem bestimmten Projekt aus der firmeneigenen Datenbank und dem Internet überschaubar zusammenstellen? Diese Visualisierung haben wir jetzt ge-schafft – und so werden etwa Erfahrungswerte eines Un-ternehmens bei der Produktentwicklung ausgenutzt oder schnell die richtigen Experten zu einem Thema gefunden. Das ist ja der Kern des Wissensmanagements: Überblick und Zugriff auf eigenes und externes Know-how sichern die Wettbewerbsfähigkeit in der globalisierten Wirtschaft.

Das hatten mein Kollege Richard Stenzel und ich bereits 1993 erkannt – damals allerdings noch als Mitarbeiter in einer Fraunhofer-Arbeitsgruppe, die sich mit semantischen Suchtechnologien für geschäftsrelevante Daten befasste. Aus Ideen wurde eine Software, die eine kommerzielle Vermarktung wahrscheinlich werden ließ – den Praxistest bestand Conweaver dann innerhalb eines Industrieprojekts mit und für Bilfinger Berger: Unsere Rechercheanwendung stellt den Mitarbeitern global über Konzerneinheiten hin-weg relevante Informationen strukturiert auf Knopfdruck bereit. Auch für die Fraunhofer-Zentrale entwickelte Con-weaver binnen drei Wochen eine interne Expertensuche, die jetzt weltweit und standortübergreifend Fachpersonal in einer der größten Forschungsorganisationen Europas ermittelt. Fraunhofer beantwortet nun etwa externe Anfra-gen aus Industrie und Öffentlichkeit binnen kürzester Zeit – ohne aufwendige E-Mail- und Telefonrecherche.

Für die Suchlösungen bilden wir die gesamte Informations-landschaft eines Unternehmens automatisch in einem Wis-sensnetz ab – sowohl strukturierte als auch unstrukturierte Daten. So entstehen Beziehungen und Zusammenhänge zwischen Geschäftsobjekten wie Projekten, Abteilungen, Dokumenten sowie Produkten und die Daten lassen sich über ihren reinen Informationsgehalt hinaus explorieren. Natürlich werden die Treffer detailliert aufbereitet und in Kategorien angezeigt, Querverweise lenken den Blick auf

Ergebnisausgabe: Die semantische Suche zeigt struktu-riert und in Katego-rien geordnet alle relevanten Experten und Dokumente im Unternehmen in Sachen Wärme-dämmung – auch themenverwand-te Begriffe wie Wärmeisolierung, Wärmeschutz oder Heat Insulation sind im Blick.

13Labor.BlickConweaver. Plädoyer für die Verbundforschung

www . Digital-Zeitschrift.de

foto

: fr

au

nh

ofer

iG

D

foto

(2)

: co

nW

ea

ver

komplexen Systemen kombinieren lassen. Für eine derartig signifikante Erweiterung von Anwendungen sind enge Ko-operationen mit Organisationen aus dem Forschungs- und Entwicklungssektor unabdingbar. Und da haben wir uns gut aufgestellt: Wir profitieren etwa vom Know-how der Abteilung Visual Analytics des Fraunhofer IGD im Bereich computergesteuerter Businessdatenanalyse. Bei anwen-derfreundlichen Interfaces kooperieren wir eng mit der Fraunhofer-Arbeitsgruppe SemaVis an neuen Informati-

onsanzeige-und Benutzeroberflächen-Konzepten. Und zur Vertiefung der linguistischen Technologieebene tauschen wir uns mit der Universität Saarbrücken aus: Wir optimie-ren Textintelligenz und Verständlichkeit der Software wei-ter, denn Inhalte unstrukturierter Unternehmensdaten wie Publikationen, Berichte oder Produkterklärungen sollen noch genauer im jeweiligen Suchkontext ermittelt werden.

Dieser Innovationsprozess birgt spannende Synergie-effekte und bringt alle Parteien technologisch weiter. Un-sere kurzfristige wissenschaftliche Perspektive fokussiert sich – auch dank dieser Allianzen – auf die Entwicklung weiterer intelligenter Konnektoren, um mehr unterschied-liche Datenquellen anzubinden. Langfristig möchte Con-weaver noch effektivere – weil mitdenkende – Such- und Vernetzungssysteme zur Verfügung stellen. Dabei sehe ich den Ansatz automatischer Wissensvernetzung als weg-weisenden IT-Enabler an: Er verbessert wirkungsvoll das Informationsmanagement von Organisationen, die inner-halb ihrer Arbeitsprozesse auf kluge Vernetzung und eine strukturierte Aufbereitung von Geschäftsdaten angewiesen sind.

Homepage Fraunhofer-Institut für Graphische Datenverarbeitung: www.igd.fraunhofer.de

Homepage Conweaver: www.conweaver.de

* Dr. Thomas Kamps, Jahrgang 1961, ist Gründer und Geschäftsführer der ConWeaver GmbH. Kamps ist promovierter Informatiker und verantwortlich für Strategie, Marketing und Vertrieb, Finanzen, Investor Relations.

Innovation im Ver-bund: Conweaver bleibt seinen Wurzel treu und kooperiert mit dem Fraunhofer-Institut für Gra-phische Datenver-arbeitung (IGD)

– hier sitzen die Spezialisten für die Bewältigung großer Datenmengen.

Die Conweaver-Chefs stehend im „Labor“: Richard Stenzel (links) und Thomas Kamps sind eng in die Entwick-lung einbezogen.

Das UnternehmenDie Conweaver GmbH besteht als Ausgründung des Fraunhofer IGD seit 2007 und beschäftigt derzeit 15 Mitarbeiter. Das Darmstädter Unternehmen ist zusammen mit SAP und Software AG Gewinner des BMBF-Software-Spitzen-clusters „Digitales Unternehmen“ des Forschungsministeriums und Sieger beim Innovationspreis-IT der Initiative Mittelstand in der Kategorie Wissens-management.

Die TechnikConweaver sucht im Unternehmensportal oder Intranet, indem die semantische Integrations- und Suchtechnolgie Daten- und Dokumentbestände in einem Wissensnetz zusammenführt. Es dient als logischer Suchindex für alle ange-schlossenen Datenquellen – der Nutzer adressiert mit nur einer Frageformulie-rung das komplett verknüpfte interne Know-how und erhält ein vollständiges, aggregiertes und strukturiertes Suchergebnis.

foto

: co

nW

ea

ver

14 kern. stück Text. Pia Grund-Ludwig

Bedingt tauglich – noch immer warten viele Firmen auf wirklich zuverlässige Cloud-Computing-Lösungen

foto

: Sh

utter

Sto

ck

www . Digital-Zeitschrift.de

15Kern.stückCloud Computing. Deutsche Unternehmen starten nur zögerlich in die Wolken

Cloud Computing erlebt 2011 den Durchbruch, meinen IT-Analysten unisono. Spätestens seit der Cebit im März 2011 ist es Tagesschau-tauglich und ein Lieschen-Müller-Thema geworden. Wesentliche Hürden zur Einführung gibt es aber nach wie vor: Die bestehenden IT-Architekturen besonders der großen Unternehmen sind vor allem in den Kernanwendungen nur bedingt Cloud-tauglich, die Compliance- Hürden sind hoch und Sicherheitsbedenken nur zu Teilen ausgeräumt.

16 kern. stück Text. Pia Grund-Ludwig

Dazu gehören

Informationsdienste,

Dienste für Qualitätsbewertung und Benchmarking,

vertrauensunterstützende Komponenten,

Dienste zur Darstellung der Rechtsverträglichkeit von Cloud-Services,

Dienste zur Unterstützung von Open- Service-Innovation.

Die Value4Cloud-Dienste werden von mehreren Partnern erbracht: Über Service-Marktplätze er-schließen sich so regional tätige IT-Unternehmen überregional neue Kundengruppen. Mit beteiligt

an dem Projekt ist Fortiss, ein An-Institut der TU-München (www.fortiss.org). Value4Cloud ist vom Bundeswirtschaftsministerium ausgezeichnet und wird vom Bitkom als Projektpartner unterstützt.

Horizontale Cloud-DiensteIm Projekt Value4Cloud entstehen Mehrwertdienste, die für mittelstän-

dische Interessenten Cloud-Angebote nach wirtschaftlichem Nutzen

und Risiken bewerten.

FoTo

: SH

UIT

TeRS

ToCK

Wer die IT-Szene beobachtet, wundert sich, dass Cloud noch immer als neues Thema be-trachtet wird, obwohl es schon seit einigen Jahren als heißes Trend-Thema und Paradig-menwechsel gehandelt wird. Doch das Träg-heitsmoment war bei allen Beteiligten hoch: „Noch 2010 war die Powerpoint-Cloud vor-herrschend“, kommentiert Experton-Analyst Steve Janata süffisant. „Cloud Computing hat 2010 den IT-Markt wie kein zweites Thema bewegt. Allerdings fand die größte Dynamik noch auf der verbalen Ebene – der Diskussion über dieses Thema – statt“, beobachtet auch Techconsult. Der Markt für Cloud-Services habe mit 388 Millionen Euro Volumen nur etwa ein halbes Prozent zum deutschen IT-Markt beigetragen, haben sie ausgerechnet.

In den letzten zwölf Monaten ist aber auch in Deutschland viel in Bewegung gekommen. Da-rin sind sich die Analysten durch die Bank einig und sehen 2011 als ein Jahr des Aufbruchs. Bei der Wachstumsrate stelle Cloud Compu-ting andere Bereiche deutlich in den Schatten, sagt Techconsult und sieht ein Potenzial im Business-to-Business-Bereich von 564 Millio-nen Euro. Viele traditionelle IT-Anbieter und Telcos haben erst jetzt wirklich vermarktbare Produkte, beobachtet Janata.

Experton hat vor einem Jahr die Anbieterland-schaft in Deutschland unter die Lupe genom-men. Nun ist die Nachfolgestudie für 2011 er-schienen. Steve Janata sieht eine wesentliche Veränderung, die gut ist für die Anwender: Die

Anbieterlandschaft ist sehr viel strukturierter und vielfältiger geworden, es haben sich kla-rere und zukunftsfähige Konzepte und Pro-duktpaletten entwickelt.

Fünf Trends„Viele Unternehmen haben im letzten Jahr viel getan, nehmen wir nur die großen Telcos wie NTT oder Colt, die standen 2010 noch in den Startlöchern“, beobachtet Janata. Die hätten nun fertige Produkte, die schon bei Kunden im Einsatz sind, auch wenn es teilweise noch keine deutschen Referenzen gebe. Bei den Services sieht er wie im Vorjahr für deutsche Kunden T-Systems und IBM ganz oben, aber HP sei deutlich herangerückt: „Viele wie HP haben hart gearbeitet um ihre Angebote zu verbessern“ sagt er.

Das gilt auch für den internationalen Markt. „2010 war aus unserer Sicht das erste Jahr, in dem alle großen Hersteller mit Schwung Cloud Services zum Kernbestandteil ihrer Strategie und natürlich auch ihres Marketings gemacht haben“ urteilt Frank Gens vom Analystenun-ternehmen IDC. Das werde sich 2011 bereits auszahlen, ist Gens sicher. Er geht von fünf generellen Trends für 2011 aus:

Public Cloud Services werden fünfmal so schnell wachsen wie der IT-Markt generell. Das bedeutet, dass die Kunden weltweit dieses Jahr bereits 29 Milliarden USD für Public Cloud Services ausgeben. Das wären 30 Prozent mehr als im Vorjahr, vor allem

für die Bereiche Mail, Zusammenarbeit und Anwendungsentwicklung. Bis Ende des Jah-res sollen 15 Prozent der Einnahmen der IT-Branche aus Cloud-Anwendungen kommen.

2011 wird das Jahr, in dem Private-Cloud-Dienste den Durchbruch schaffen. 13 Milli-arden Dollar Umsatz könnten damit erzielt werden. „Anbieter, die sich bislang auf Pu-blic Clouds konzentriert haben wie Sales-force und Google werden mit Infrastruktur-anbietern kooperieren, um ihre Public Cloud Angebote um Private Clouds zu erweitern“, ist der IDC-Analyst sicher.

Der Kampf um Platform-as-a-Service wird zunehmen, um zu entscheiden, wer eine ähnliche Rolle wie Microsoft im Desktop-Umfeld spielen kann. In diesem Jahr sollen 80 Prozent der neuen Softwareprodukte Cloud-fähig sein. Als wichtigste Mitspieler in diesem Umfeld hat Gens Amazon, Goo-gle, IBM, Salesforce, Oracle, VMware und klassische Telcos identifiziert. Gens spricht von einer entscheidenden Weichenstellung: „Der Gewinner des Plattform-Kriegs wird diejenige Marktmacht haben, die Microsoft in mindestens der vergangenen Dekade über sein reichhaltiges Angebot an Windows-Applikationen hatte.“ Auch Player wie HP oder Dell seien dabei, sich im Bereich der Cloud-Plattformen besser aufzustellen. Für diese traditionellen Microsoft-Partner kön-ne es auch eine Option sein, sich mit einem starken Player zu verbünden.

www . Digital-Zeitschrift.de

17Kern.stückCloud Computing. Deutsche Unternehmen starten nur zögerlich in die Wolken

Vossen ist wissenschaftlicher Berater der Deut-schen Informatik-Akademie in Bonn. Die Akademie habe entsprechende herstellerübergreifende und produktneutrale Seminare, Praxisworkshops sowie kostenfreie Webcasts zu diesem Themenkomplex aufgelegt. Während größere Unternehmen nicht selten eine private Cloud betreiben, setzen kleine und mittlere Unternehmen (KMUs) häufiger auf eine öffentliche oder eine Community-Cloud.Unabhängig hiervon sind vier Dimensionen re-

levant, wenn man vor der Frage steht, ob Cloud oder nicht: die wirtschaftliche, die technische, die rechtliche und die organisatorische. Wirtschaftlich kann Cloud-Computing je nach Anwendungsfall sehr attraktiv sein – muss es aber nicht. Technisch birgt Cloud-Computing für das Anwenderunterneh-men nur wenig wirklich neue Herausforderungen, fordert aber oft eine Anpassung bestehender Pro-zesse und Systeme. Sicherheit in der Cloud (nicht nur aus technischer Sicht) ist das zentrale The-

ma, aber auch Vertragsgestaltung (etwa Fragen des Provider-Wechsels oder der Vereinbarung von Service-Level-Agreements) oder der Umgang mit sehr großen Datenmengen, zu deren Analyse und Verarbeitung häufig die eigene Infrastruktur nicht ausreicht.

Fort- und Weiterbildung: Mehr Kompetenz in der WolkeVor allem für Fach- und Führungskräfte besteht in Sachen Cloud Computing erheblicher

Weiterbildungs- und Schulungsbedarf, meint Prof. Dr. Gottfried Vossen, Leiter der DBIS-Group

Datenbanken und Informationssysteme an der Universität Münster.

FoTo

: G

AB

RIeL

e Pe

TeRS

Es wird einen Machtpoker um die Verwaltung hybrider Clouds geben. Die Kunden hätten hohen Bedarf an Lösungen, die ihnen die kohärente Verwaltung der IT-Infrastruktur in Public Clouds, Private Clouds und in ihren unternehmensinternen Anwendungen erlau-ben. Gens erwartet eine Reihe von Initiati-ven. Die Gartner Group geht davon aus, dass dies auch zu einer enormen Zunahme von Service Brokern führen wird. Derzeit gebe es davon nur gut ein Dutzend, bereits in drei Jahren sollen es 100 sein, sagt Gartner-Ana-lyst Daryl Plummer.

Cloud Computing stirbt ab 2012 einen lang-samen Tod. Diese Aussage mag zunächst verwundern, aber die Erklärung von Gens leuchtet durchaus ein. „Der Markt begreift Cloud Computing dann schlicht als die Art und Weise, in der IT funktioniert, und nicht mehr als ein Modell, das einen eigenen Na-men braucht.“ Cloud Services würden in den nächsten 24 Monaten zum Mainstream.

Doch davon ist man 2011 noch sehr weit entfernt. Die Voraussetzung dafür, dass die Startplätze in diesen unterschiedlichen Wett-bewerben in diesem Jahr vergeben werden, sind aber zweifellos da. Spätestens seit Ende 2010 stehen alle großen Hersteller von Unter-nehmenssoftware mit entsprechenden Ent-wicklungsumgebungen, die auf die jeweiligen Kernzielgruppe zugeschnitten sind, in den Startlöchern: IBM mit der Cloud Service Pro-vider Platform, Microsoft mit Windows Azure,

Oracle mit Exalogic Elastic Cloud, VMware mit vCloud oder Red Hat mit Red Hat PaaS. Spätes tens seit dem HP Summit im März 2011 und dem klaren Bekenntnis des neuen HP-Chefs Leo Apotheker zum verstärkten Enga-gement in Cloud-Anwendungen hat auch HP den Schwenk vollzogen. Da alle diese Herstel-ler aber auf ihre bisherigen Anwender und die installierte Basis Rücksicht nehmen müssten, gehe es ihnen vor allem um das Aufteilen von Hardwareressourcen in der Cloud und weniger um die Aufteilung der eigentlichen Anwen-dungen, urteilt Donna Scott von Gartner.

Gesundes AbwartenIn Deutschland beschäftigen sich die Anwen-der zunehmend mit dem Umstieg. Bislang sind bislang vor allem große und kleine Unterneh-men in der Cloud unterwegs. Kleinere Unter-nehmen nutzen einfache Standarddienste wie Mail, Konferenzlösungen oder variablen Spei-cherplatz. Das ergab eine Befragung, die der IT-Berater Wolfgang Martin gemeinsam mit der TU Darmstadt durchgeführt hat.

Viel Enthusiasmus beobachtet Experton-Fachmann Janata am anderen Ende der Skala, bei den großen Unternehmen. Sein Eindruck: Sie starten ambitioniert, „am Ende bleibt häufig nicht so viel Cloud übrig. Compliance-Gesichtspunkte stehen dem entgegen, da-tenschutzrechtliche Erwägungen, oder auch einfach nur die Tatsache, dass Cloud-Services hochstandardisiert sind und viele Unterneh-men sich nicht davon trennen können oder

wollen, einen hohen Individualisierungsgrad zu haben mit ihren Lösungen, berichtet Exper-ton-Fachmann Steve Janata. Der Mittelstand sei am langsamsten unterwegs. „In vielen Tei-len ist das ein gesundes Abwarten, denn es gibt noch viele Dinge, die sollte man klären und einen gewissen Druck ausüben.“

Der Druck auf die IT-Anbieter beginnt in Deutschland zu fruchten. Die „Powerpoint-Cloud“ ist klareren Strategien gewichen. 2010 standen bei den Services für Business-Kunden T-Systems und IBM noch alleine und mit wei-tem Abstand auf den vorderen Plätzen, nun habe vor allem HP deutlich aufgeholt. Auch die großen internationalen Telekommunikations-anbieter wie Colt oder NTT buhlen mittlerweile stärker um die deutschen Kunden.

Bei den Entwicklerplattformen habe Amazon immer noch bei Weitem die Nase vorn, es lä-gen immer noch Welten zwischen dem Früh-starter und Google als Nachzügler in diesem Umfeld, so die Beobachtung Janatas. „Durch die Brille deutscher Unternehmen angeschaut wird das wahrscheinlich auch so bleiben“, vermutet er. Amazon habe durch den frühen Start, die hohe Zahl der Softwareentwickler und auch durch die Auslagerung des Cloud-Geschäfts in ein eigenes Unternehmen einen gewissen Vorsprung.

Für Mittelständler sei auch Google im Prin-zip eine Alternative zu Microsoft, aber gerade für diese Unternehmen sei das Gefühl wich-

18 Interview mit professor Jörn Müller-Quadekern. stück

Herr Müller-Quade, gibt es Anwendungen im Cloud Computing, bei denen Sie Unternehmen aus Sicherheitsgründen sagen würden: Lasst die Finger davon?

Cloud Computing ist besonders geeignet für nicht so sicherheitskritische Anwendungen, wenn Sie beispielsweise Webseiten hosten oder pflegen, die sowieso im Internet sichtbar sind. Wenn es aber um Dinge ginge, die kritisch sind in Bezug auf Wirtschafts- und Industriespionage, etwa wenn ein Au-tomobilhersteller seine neuesten Modelle als Daten hinterlegen würde oder wenn es um hochsensible medizinische Daten von Patienten ginge, dann wäre ich tatsächlich beim derzeitigen Stand der Sicherheitsmaßnahmen im Cloud Computing vorsichtig.

Würden Sie Kreditkarteninformationen der Cloud anvertrauen?Das ist unkritisch, weil dort, wo nur mit der Kreditkartennummer gezahlt wer-den kann, die Kreditkartenfirma haftet. Sie können hinterher sagen, dass Sie bestimmte Transaktionen nicht vorgenommen haben. Kritisch sind tatsächlich Daten, die sich missbrauchen lassen, bei denen Sie nicht im Nachhinein die Möglichkeit haben, das zu korrigieren. Wenn es um Geheimnisse geht, die eine Firma haben könnte, ist das hinterher nicht wiedergutzumachen.

Werden die IT-Umgebungen in der Tendenz nach Ihrer einschätzung eher sicherer oder unsicherer?

Trotz all meiner Bedenken ist es paradoxerweise so, dass ich glaube, dass die IT insgesamt sicherer werden wird, denn es kümmern sich Profis um die Sicherheit. Es wird Back-ups geben. Da wird im Moment noch enorm ge-schlampt in einzelnen Firmen. Es wird aktuelle Virenfilter und gut konfigurierte Firewalls geben, wenn Fachleute sich darum kümmern. Trotzdem ist es so, dass man nicht jedem Anbieter trauen kann. Das ist eine neue Bedrohung, die es bisher nicht gab, wenn man die Daten bei sich gespeichert hat.

Sie haben das Thema Datensicherheit, aber nicht das Thema Integrität der Daten angesprochen. Was ändert sich in diesem Bereich durch Cloud-Lösungen?

Die Daten, die Sie speichern, unverändert zu halten, ist für die Cloud rela-tiv einfach. Dort könnten Mechanismen wie digitale Signaturen und ande-ren Authentifikationsmechanismen verhindern, dass die Daten böswillig oder unabsichtlich verändert werden. Was bleibt, ist, dass Sie, wenn Sie Services benutzen, dem Service vertrauen müssen.

Was heißt Vertrauen? Lässt sich das technisch abbilden oder ist es eine Frage, ob ich den Anbieter kenne und ihm vertraue?

Das ist eine gute Frage, da haben wir noch wenig Erfahrung. Wir glauben, dass es manchmal eine Frage der Kenntnis des Anbieters ist, manchmal auch

eine Frage, aus welchem Land der Anbieter kommt weil beispielsweise Daten-schutzrichtlinien in anderen Ländern anders sind. Manche Firmen haben ein Geschäftsmodell, Services anzubieten, bei denen die Daten in Deutschland bleiben. Man könnte auch als Security Broker auftreten und so eine Art Fil-terfunktion übernehmen, dass man selber mit geschickten Verschlüsselungs-funktionen dafür sorgt und, obwohl man die Flexibilität und die Möglichkeiten der Cloud nutzt, die Daten geheim hält. Solche Security Broker wären ein Geschäftsmodell für die Zukunft.

Cloud Services werden schon angeboten, Sie sprechen aber von Sicher-heitslösungen, die erst noch zu entwickeln sind. Ist es aus Ihrer Sicht aus Sicherheitsgründen zu vertreten, in die Cloud einzusteigen?

Das ist Vertrauenssache. Sie vertrauen einer Bank, die hat all ihr Geld. Es ist auch so, dass Sie heute dem Internet-Anbieter vertrauen. Er sieht Ihr Surf-Verhalten, und Sie vertrauen darauf, dass der Datenschutz dort eingehalten wird. In diesem Sinn ist Cloud Computing nutzbar. Problematisch ist es, wenn Sie dem Anbieter misstrauen. Ich sehe unsere Aufgabe in Wissenschaft und Forschung darin, geeignete technische Prozesse und Maßnahmen zu finden, die angemessene Sicherheitsgarantien geben können, auch wenn das Ver-trauen noch nicht da ist.

Sie haben das Thema Datenschutz angesprochen. Wie lässt sich denn sicherstellen, dass die Daten wirklich in Deutschland bleiben und nur auf deutschen Servern verarbeitet werden?

Es gibt Services, wo das sichergestellt ist, aber auch internationale Anbieter, die dazu gar keine Angaben machen. Wenn man sich auf das Datenschutz-recht berufen will sollte man darauf achten. Wir versuchen, in der IT-Sicher-heit unabhängig von Datenschutzrichtlinien mit technischen Maßnahmen zu verhindern, dass Daten überhaupt bekannt werden.

Wie soll das funktionieren?Konkret würde das beim Abspeichern von Daten einfach nur Verschlüsselung bedeuten. Beim Erbringen von Services ergibt sich dann die Schwierigkeit, dass Sie bestimmte Dinge auf den Daten gar nicht mehr durchführen könnten. Sie können keine Suche machen, Sie können die Daten nicht mehr verarbei-ten. Für uns ist die Herausforderung die, dass wir gerne so verschlüsseln wür-den, dass man trotzdem noch die Services erbringen kann und wo das nicht möglich ist, die Daten so auf einem Server zu verteilen, dass der Schaden begrenzt bleibt, wenn in einen Server eingebrochen wird.

Macht es dazu Sinn die Daten zu segmentieren?Genau das haben wir vor, eine getrennte Speicherung der Daten, allerdings nicht so, dass wir Daten von A bis M bei einem Anbieter und N bis Z beim

Klare Sicherheitskonzepte sind nötigJörn Müller-Quade*, Professor für IT-Sicherheit und Kryptographie am Karlsruhe Institute of Technology, ist überzeugt davon, dass

Cloud Computing die IT sicherer macht. Forschungsbedarf sieht er aber dennoch bei ganzheitlichen Sicherheitsgarantien.

www . Digital-Zeitschrift.de

19Kern.stückCloud Computing. Deutsche Unternehmen starten nur zögerlich in die Wolken

anderen speichern. Wenn man sich eine Datenbank als Tabelle vorstellt, wür-de man die Spalten bei unterschiedlichen Anbietern speichern und dadurch vielleicht Korrelationen zwischen den Spalten verheimlichen. Wir werden vielleicht in Zukunft nicht mehr so stark darauf achten, die Daten an sich geheim zu halten sondern die Zusammenhänge. Das könnte ein sehr sinn-voller Ansatz sein.

Braucht man dazu neue Datenbankkonzepte?Es ist schon enorm viel da, was man aber tatsächlich braucht, ist ein Ge-samtkonzept. Nur weil man einzelne Mechanismen kennt und weiß, was die tun, hat man noch lange nicht die Möglichkeit, Gesamtgarantien für einen Service zu geben. Services werden kombiniert. Man muss sich überlegen, wie Sicherheitsgarantien dadurch eventuell abgeschwächt werden, dass man Services koppelt oder dadurch, dass der Anbieter, dem man vertraut, bestimmte Aufgaben an andere Anbieter auslagert.

Wo sehen Sie da noch Forschungsbedarf?Bei der Frage der ganzheitlichen Garantien. Ich glaube nicht, dass wir Fort-schritte speziell in der Kryptographie oder bei der Softwareentwicklung oder in der Datenbanktechnologie brauchen, um sichere Cloud-Services zu erbrin-gen. Wir brauchen eine gemeinsame Sprache, um ein Konzept der Sicherheit erstellen.

Gibt es solche Technologien nicht bereits für bestehende Web-Services?Gerade Web Services sind in Bezug auf Sicherheit kein Vorbild. Es gibt zum Beispiel sehr große Probleme bei der Zuordnung, welche Session auf welche Daten zugreifen darf. Da kann es möglich sein, dass ein geteiltes Fenster auf ein anderes Fenster überlappt. Sie klicken auf das Fenstern und denken, dass Sie etwas bei der Bank bewirkt haben, in Wirklichkeit haben Sie vielleicht die Erlaubnis gegeben, dass eine Session von der anderen Daten übernimmt. Ich denke, dass Web-Services klarere Sicherheitskonzepte brauchen.

Sie schlagen als Konzept eine Trennung der Daten vor. Würde das auch dann etwas nützen, wenn ein PC über Viren oder Trojaner korrumpiert ist?

Das ist nicht unser Schwerpunkt. Ich rechne aber damit, dass durch Cloud Computing IT generell sicherer wird. Es kann ja sein, dass der Client kor-rumpiert ist durch einen Virus. Aber der Client hat vielleicht nicht mehr alle Daten zur Verfügung, die könnten ja in der Cloud sicher gespeichert sein. Es könnte sein, dass Ihr Cloud-Anbieter bemerkt, dass Sie ungewöhnliche Zugriffe haben und dass Sie alles runterladen wollen. Dann würden Sie viel-leicht eine Frage beantworten müssen. Damit hätten wir eine neue Sicher-heitsstufe erreicht.

* Jörn Müller-Quade, Jahrgang 1967, ist experte für IT-Sicherheit und Professor am Institut für Kryptographie und Sicherheit am Karlsruhe Institute of Technology. er hat 2008 den IT-Sicherheitspreis der Horst-Görtz-Stiftung für das Wahlsystem „Bingo Voting“ erhalten.

tig, dass man sich um sie kümmert. Das decke Google nicht mit ei-ner eigenen Service- und Vertriebsmannschaft ab. Dazu komme, dass Unter nehmen aus rechtlichen Gründen darauf angewiesen seien, dass eine Verarbeitung ihrer Daten in Deutschland stattfinde, erklärt der Experton-Fachmann: „Das ist das Grundproblem von Amazon, force.com, Microsoft und Google, dass sie kein deutsches Rechenzentrum haben, das ist für die großen Unternehmen ein Pferdefuß.“ Lösungen wie Collaboration-Produkte, Konferenzlösungen oder Mail-Pakete wür-den verkauft, es fehle aber der große Schwung.

SAP adressiert traditionell den Markt der mittelständischen IT-Lösungen für ERP und CRM und hat seit Juli 2010 mit Business by Design eine technologisch ausgereifte Lösung, die vor allem auf kleine und mittel-ständische Anwender zielt.

Vermintes Gelände„Nachdem sich SAP lange bedeckt gehalten hat, kann es jetzt auf jeden Fall ein funktionierendes Produkt vorweisen“, sagt Frank Niemann, Se-nior Analyst bei Pierre Audoin Consultants. SAP habe die technischen Schwierigkeiten weitgehend in den Griff bekommen, urteilt PAC. Er-reicht worden sei dies unter anderem durch Umbaumaßnahmen. Dazu gehöre neben Multi-Tenancy auch die Umstellung des Frontends auf die Microsoft-Lösung Silverlight. Die Business-Intelligence-Ergänzungen werteten die ERP-Lösung auf, die verbesserte Office-Integration sei eine notwendige Erweiterung des Frontends, da Nutzer dies heute fordern. Der Erfolg sei damit aber noch keinesfalls gewährleistet. „Er wird zu einem großen Teil davon abhängen, ob es gelingt, Business ByDesign in kurzer Zeit beim Kunden aufzusetzen und die Kosten da-bei gering zu halten. Die derzeit verfügbare Implementierungsmethode eignet sich für eine standardisierte ERP-Einführung ohne tiefgehende kundenspezifische Anpassung. Auch dieses Werkzeug taugt aber nur, wenn der spätere Nutzer weiß, was er will“, urteilt PAC.„SAP betritt vermintes Gelände“, beobachtet Experton-Fachmann Ja-nata, denn gerade ERP sei in Deutschland hoch individualisiert. Hier müssten vor allem die Anwender mitziehen: „Den Paradigmenwech-sel zu einer standardisierten Lösung zu schaffen wird schwierig. Die Unternehmen werden aber erkennen, dass der Mehraufwand für die Individualisierung durch prozessuale Fortschritte nicht zu rechtfertigen ist“, ist er sicher.

Die Anwender müssten sich ein Stück weit von der Individualisierung verabschieden. Für die Hersteller bedeute das aber auch, dass nicht wie bislang mit dem Verkauf einer Softwarelizenz für die nächsten Jahre das Geschäft eingetütet sei. Die Kundentreue könnte abnehmen. Für die Hersteller bedeute dies, dass sie sich sehr viel stärker darum bemühen müssen, dass ihre Produkte nicht nur gekauft, sondern auch wirklich benutzt werden: „Wenn der CIO merkt, dass Mitarbeiter die Services gar nicht benutzen, dann werden die einfach wieder gekündigt. Ich muss mich als Anbieter viel mehr darum kümmern, dass die Akzeptanz, meine Lösung wirklich zu benutzen, beim Anwender da ist.“

Vor allem Reseller und Distributoren hätten diese notwendige Kunden-orientierung und Umstellung auf neue Geschäftsmodelle durch Cloud Computing bislang noch überhaupt nicht in Angriff genommen. „Die schlafen immer noch“, urteilt Janata. Dafür hat er eine einfache Erklä-rung. Es gehe ihnen derzeit zu gut, sie hätten ein Umdenken schlicht nicht nötig: „2010 hätte man sich darauf einstellen können. Aber da liefen die Verkäufe mit der herkömmlichen IT so gut, dass man sich offensichtlich gesagt hat, läuft doch.“

foto

S (

6):

ar

ne W

oh

lGeM

uth

20 kern. stück Text. Pia Grund-Ludwig

Die Beharrungseffekte seien groß, schließ-lich sei Cloud Computing nicht der erste Pa-radigmenwechsel, von dem die Hersteller in den letzen 30 Jahren gesprochen haben. Die Distributoren und Reseller müssten aber er-kennen, dass dies nun definitiv der Fall sei. Cloud Computing werde die Informations-technik ähnlich umkrempeln wie seinerzeit das Konzept des Client-Server-Computing, ist sich Janata sicher. Die Distributoren müssten lernen, mit ihrem Pfund zu wuchern: dem di-

rekten Kontakt zum Endkunden. „Den müssen sie nutzen, um Geschäftsmodelle zu etablie-ren, die sie in Zukunft nicht obsolet machen“, wird Janata deutlich. Software, die der Kunde aus einem externen Rechenzentrum beziehe, brauche schließlich keine mehrstufige Wert-schöpfungskette. Das allerdings hätten aber noch nicht alle verstanden: „Bislang stehen die Distributoren auf dem Startblock, schauen in den Himmel und warten, ob schon jemand geschossen hat.“

Ein Thema, das Cloud Computing auch in Deutschland teilweise noch ausbremst, sind Fragen zu Sicherheit und Schutz der eigenen Daten, aber auch die der Kunden. In Bezug auf Datensicherheit kann Janata die Beden-ken bei kleinen und mittelständischen Kunden nicht nachvollziehen: „Die Rechenzentren der großen Provider sind um Längen sicherer als die Rechenzentren eines Mittelständlers“, ist er überzeugt. Bei Public Clouds und sensiblen Daten rät das Bundesamt für Sicherheit in der Informationstechnik zur Vorsicht: „Die Nut-zung einer Public Cloud bedeutet für den Nut-zer eingeschränkte Kontrollmöglichkeiten ge-genüber einem Betrieb unter eigener Hoheit. Sollen Informationen/Prozesse mit einer sehr hohen Vertraulichkeit und/oder einer sehr hohen Verfügbarkeit (zum Beispiel kritische Geschäftsprozesse, IT-Anwendungen in Kri-tischen Infrastrukturen) in einer Public Cloud verarbeitet beziehungsweise ausgeführt wer-den, so hat der Dateneigner kritisch abzuwä-gen, ob er die Nutzung einer Public Cloud für diese hoch schutzbedürftigen Daten/Prozesse verantworten kann“, lautet der Rat in gutem Amtsdeutsch in den Richtlinien des BSI.

German Angst Handlungsbedarf bei Public Clouds sieht auch das Unabhängige Landeszentrum für Da-tenschutz in Schleswig-Holstein. Dort ist vor Kurzem das von der Europäischen Union ge-förderte Projekt TClouds gestartet, mit einer Laufzeit von drei Jahren soll eine vertrauens-würdige, verlässliche und transparente Cloud-Computing-Infrastruktur entwickelt werden, die die Verarbeitung personenbezogener Da-ten oder sensibler Firmendaten in der Cloud ermöglicht. Forschungsschwerpunkt wird die Gestaltung einer sicheren Cloud-Umgebung sein, die den europäischen Datenschutzanfor-derungen genügt, ohne dass auf die Vorteile von Cloud Computing verzichtet werden muss. Datenschutzkonzepte, die Cloud-tauglich seien, gebe es bislang eher in der Theorie, bestätigt Experton-Mann Janata. Das sei aber kein Problem der „German Angst“. Das im in-ternationalen Vergleich relativ strikte deutsche Datenschutzrecht und insbesondere auf den Schutz der Daten vor dem Zugriff staatlicher Stellen hält Janata für ein hohes Gut und einen wichtigen Standortvorteil. Schließlich seien Daten die Währung des Internets: „Wenn wir die großen Cloud-Rechenzentren bekommen wollen, ist ein hohes Maß an Datenschutz und Compliance eher hilfreich, dann werden An-wender dort ihre Daten hingeben.“

„Die hybride Cloud ist eine Mischform von internen und externen IT-Services – sie kombiniert Private, Trusted und Public Cloud“, erklärt Kurt N. Rind-le, Cloud Portfolio Leader der IBM Deutschland GmbH. Noch ist ein derartiger Systemkomplex nicht rechtskonform zu kontrollieren – Sicherheits- und Schnittstellenprobleme sind kritisch. Doch IBM bereitet sich auf die Endstufe des Cloud Compu-ting vor: „Wir haben Cast Iron gekauft und damit auch Hunderte Templates, mit denen Cloud-An-wendungen unterschiedlichster Unternehmen wie Salesforce oder Amazon in Inhouse-Applikationen wie SAP oder JD Edwards integriert werden kön-nen“, erläutert Rindle. Inzwischen seien auch die Mechanismen im Blickfeld, die eine Hybrid-Cloud-Umgebung charakterisieren. Aufsetzen sollen sie später dann auf IBMs Sicherheits-Framework und der Open Cloud Architecture, die inzwischen zur Standardisierung bei der Open Group eingereicht ist. Fujitsu verfolgt das Konzept, externe IT-Services aus der Public Cloud für Unternehmen zu verwal-ten. HP plant auf Basis der skalierbaren Converged Infrastructure die Entwicklung eines vollständigen Cloud Stacks und die Unterstützung der Unterneh-men bei einer Umstellung auf hybride Cloud-Umge-bungen. „Noch wollen die Unternehmen die hybri-de Cloud ja gar nicht“, predigt Rindle Pragmatismus. Die Sicherheitsmechanismen der Public Cloud hält

Rindle noch für unterentwickelt. „Da werden Daten intransparent auf mehreren Knoten vorgehalten – bei unserer Enterprise Cloud dagegen wählt ein Anwender aus, in welchem unserer Rechenzentren seine Daten liegen sollen.“

Die hybride Cloud steht für Anwenderunternehmen am Ende einer Evolution. Sie werden beim Kosten-sparen und Konsolidieren abgeholt – durch die Vir-tual Private Cloud, Managed Services, die Cloud in einer Box als Appliance oder durch Software wie den IBM Systems Director, der Pools bündelt für Datenbanktransaktionen, Webanwendungen oder betriebswirtschaftliche Standardsoftware. Doch die Richtung ist laut Rindle vorgegeben: „Mit den neuen Smart-Cloud-Services werden Unterneh-menskunden die Eigenschaften von privaten, öf-fentlichen oder hybriden Clouds den eigenen An-sprüchen anpassen können.“

Parameter sind dabei Sicherheit, Verfügbarkeit und Leistungsfähigkeit, Technologie-Plattformen, Unterstützung bei der Verwaltung, Bezahlung und Abrechnung.

„Bei einem ausreichenden SaaS-Angebot kann es theoretisch möglich werden, ein Unternehmen ohne Rechnerarchitektur und Softwarelizenzen zu betreiben“, denkt IBM-Manager Kurt Rindle in die Zukunft. „Ich nehme die Buchhaltung der Datev, die IBM-Kollaboration Lotus Life sowie SAP und zahle alles bedarfsorientiert pro Nutzer und Monat.“

Unternehmen scheuen noch den Mix aus Private und Public Cloud

Kurt Rindle, Cloud Portfolio Leader IBM Deutsch-land: „Mit den neuen Smart-Cloud-Services kön-nen Unternehmenskunden eigenschaften von privaten, öffentlichen oder hybriden Clouds wie Sicherheit oder Verfügbarkeit anpassen.“

foto

: ib

M

Selber kalibrieren? Eine Ihrer leichtesten Übungen mit dem richtigen Werkzeug von EIZO: einem SX-Monitor Ihrer Wahl mit EasyPIX-Software inklusive Farbsensor zum günstigen Paketpreis. Legen Sie in etwa fünf Minuten ein Farbprofil für Ihren neuen Wide-Gamut-LCD einfach selber an, so dass Farben stets verbindlich dargestellt werden. Weitere Infos unter www.eizo.de/easypix

Einfache Hardware-Kalibrierung und Profilierung mit EasyPIX Digital Uniformity Equalizer für Farbreinheit und Homogenität 16-Bit-Look-Up-Table und bis zu 10-Bit-Farbtiefe für höchste Farbpräzision Automatische Helligkeits- und Farbdriftkorrektur

do it yourself. mit sX-monitor und easypiX zum kalibrieren.

EIZO • EasyPIX • Digital • Format: 210x280 mm (3mm Beschnitt; 1 mm Bundzugabe) • ISO Coated V2 • ET: 01.07.11 • DU: 20.06.11 ml

eizIM1022_EasyPIX_Digital_210x280_ICv2_1ml.indd 1 16.06.11 14:32

22 Text. Rochus Rademacherkern. stück

www . Digital-Zeitschrift.de

23Kern.stückWirtschaft. Nicht jedes Unternehmen schwebt auf Wolke Sieben

0 % 20 % 40 % 60 % 80 % 100 %

USA

Planen Sie die Nutzung von Online-Softwareund -services im Rahmen Ihrer Geschäftstätigkeit2011 zu erweitern? (n = 6.450 KMUs)

Kanada

GB

Frankreich

Deutschland

ja nein keine Meinung

55 33 12

53 39 8

58 32 10

62 38

30 60 10

Den Kundenservice verbessern, das ist das primäre Ge-schäftsziel des Mittelstands weltweit, hat das Marktfor-schungsunternehmen KS&R im IBM-Auftrag bei 2000 Unternehmen herausgefunden. „Gefragt nach den ak-tuellen IT-Projekten wollen die Unternehmen 2011 vor allem ihre Infrastruktur verbessern und Virtualisierung vorantreiben“, berichtet Doris Albiez, Vice President Ge-schäftspartner und Mittelstand der IBM Deutschland.

„Insbesondere steigt im Mittelstand auch das Interesse an IT-Konzepten wie Cloud Computing.“ Kein Wunder, denn bei KMUs zahlt sich Cloud Computing schneller aus als bei Großunternehmen: Während KMUs bei Sicher-heit und Compliance ähnliche Anforderungen haben wie die Großen, sei die IT-Infrastruktur in der Regel weniger komplex, erklärt Donna Scott, Distinguished Analyst der Gartner Group. Sie hätten in der Regel auch weniger IT-

Das große Misstrauen der Kleinen – Cloud Computing reißt mittel - ständische Firmen nicht vom HockerKlare IT-Kostenkalkulation und endlich den Rechnerzoo aus dem Haus – die Cloud passt zur Denkweise kleiner und mittlerer Unternehmen. Aber noch zögern die KMUs.

Deutsche Mittel-ständler halten sich nach der Um-frage unter 6.450 KMUs beim Cloud Computing zurück.

Grafik: rochuS raDeMacher

24 Text. Rochus Rademacherkern. stück

Spezialisten und profitierten so stärker vom Know-how in der Cloud: „KMUs sind führend bei der Übernahme von Cloud-Diensten für ihre Kernsysteme.“

Doch wirklich mächtig ist die Euphorie noch nicht. Die Sage Group hat 6450 KMUs in Deutschland, Frankreich, England, Kanada und den USA nach Technologie abgefragt. „30 Pro-zent der KMUs in Deutschland wollen danach die Nutzung von Internet- und Online-basier-ten Diensten 2011 erhöhen“, berichtet Sage-Geschäftsführer Peter Dewald. „Das Gros der Firmen, nämlich 60 Prozent gab an, keinen verstärkten Einsatz zu planen.“ Dewald leitet daraus Aufklärungsbedarf ab – der Nutzen der Lösungen müsse „noch viel deutlicher darge-stellt werden“.

Als da wären? Keine Installationsarbeit oder lästigen Updates, keine Investitionen in Soft-warelizenzen und Infrastruktur, kein Back-up der Daten – Martin Hubschneider, Vorstands-vorsitzender der mittelstandsorientierten CAS Software AG, spult die Vorteile aus Sicht des Controllers und IT-Leiters locker herunter. Ein weiteres Argument zielt auf eine verbreitete Mentalität ab: „Im Idealfall merkt der Anwen-der nicht, dass er überhaupt über das Internet arbeitet – durch die Ajax-Technologie ist eine Software-as-a-Service-Lösung wie unser Kon-taktmanagement CAS PIA genauso komforta-bel wie herkömmliche Desktop-Lösungen.“ Nicht nur das gewohnte Look and Feel und das flüssige Arbeiten kommen gut an. „Durch Ajax ist die Lösung jederzeit und von überall her problemlos zu nutzen – aus dem Büro, von zu Hause oder unterwegs.“ Dafür müsse

keine Software installiert werden: „Es genügt ein Webbrowser beziehungsweise ein Smart-phone wie das iPhone oder eines der zahl-reichen Android-Geräte.“

Punktgenaue LösungenDie IT-Branche kommt aber auch nur langsam in die Gänge mit mittelstandstauglichen Cloud-Lösungen. Erst jetzt hat Sage beispielsweise die Datensicherung in der Wolke für KMUs konzipiert. Das Online-Backup wird in die Warenwirtschaftssysteme und Buchhaltung integriert und sichert die Daten auf geschütz-te Webserver – für zehn Euro für fünf Nutzer und Monat stehen 250 Gigabyte Speicher und Service bereit. Mit im Boot ist die Trend Micro GmbH, die mit 256-Bit-AES-Verschlüsselung und zertifizierten Rechenzentren für Sicher-heit einsteht.

Laut Kurt N. Rindle, Cloud Portfolio Leader der IBM Deutschland GmbH, legt der Mittelstand aber weniger Fokus auf Infrastruktur oder Plattform als Service, sondern auf Software as a Service (SaaS). „Beispielsweise sind Informa-tionsmanagement oder der virtuelle Desktop aus der Cloud beliebt – generell ist die Affini-tät zu SaaS aber abhängig von Branche und Anwendungsfeld. So ist durchaus das ganze Spektrum vertreten bis hin zu Development- und Test-Cloud – einer unseren Mittelstands-kunden verwendet die Compute Cloud sogar für Anwendertreffen.“

Akzeptanz entsteht, wenn eine SaaS-Lösung punktgenau KMUs adressiert. Die CAS Soft-ware AG aus Karlsruhe hat etwa ihre Kon-taktmanagementlösung CAS Pia konsequent

auf kleine Unternehmen und Selbstständige zugeschnitten – und sie bleibt im Rahmen fle-xibel. „Die Lösung ist vielseitig an die eigenen Anforderungen anzupassen – etwa über be-nutzerdefinierte Datenfelder, Ansichten, über ein sehr umfangreiches Rechtesystem oder diverse Schnittstellen zum Datenimport und -export“, betont CAS-Chef Hubschneider. „Wer aus der Standardversion herauswächst oder auf den On-Premise-Betrieb umsteigen will, hat die Wahl zwischen einer Individuallösung (CAS PIA/Open) oder der Komplettlösung (CAS Genesis World.“ Kostenpunkt: Bei CAS PIA in der Starter Edition werden pro Anwender und Monat 4,90 Euro in Rechnung gestellt. Die Vollversion kommt auf 19,90 Euro pro PC-Ar-beitsplatz.

Professor Gottfried Vossen von der Databases and Information Systems Group der Uni Mün-ster unterstreicht den reduzierten Aufwand für KMUs bei SaaS, weil sich der Betrieb der Hard-ware-Infrastruktur erübrigt. Im Unterschied zum bisherigen Outsourcing der Anwen-dungen seien die Firmen in der Cloud flexibler und könnten die benötigte Rechenleis tung hoch- und runterfahren – ohne erst mit dem Provider verhandeln zu müssen. Für Vossen bietet das auch Chancen für neue Organisati-onsformen, die als Trusted Cloud vor allem bei der Frage des Vertrauens ansetzen: „Ich halte den Gedanken einer Genossenschaft für rich-tig, die solche Services anbietet. Wir sind der-zeit dabei, das mit Anwendern prototypisch zu entwickeln.“ Der entscheidende Vorteil gegenüber der Public Cloud sei, dass alle Mit-eigentümer entscheiden können, was in der Cloud passiert.

Doris Albiez, Vice President Mittelstand der IBM Deutschland:

„Insbesondere im Mittelstand steigt das Interesse an IT-Kon-zepten wie Cloud Computing.“

CAS-Chef Martin Hubschneider: „Software as a Service bedeutet keine Installationsarbeit oder lästigen Updates, keine Investitionen in Softwarelizenzen und Infrastruk-tur, kein Backup der Daten.“

www . Digital-Zeitschrift.de

25Kern.stückMeinung. Prof. August-Wilhelm Scheer über Cloud Computing

Die Cloud als Wiege neuer GeschäftsmodelleNicht nur in den Branchen etablieren sich spezielle Cloud-Modelle, sondern auch übergreifend – etwa bei der Informationssicherheit.

Die Komplexität der Materie werden Cloud-Broker kapseln.

„Die IT-Infrastruktur kann zunehmend als Service genutzt werden, was in den kommenden Jahren die Wertschöpfung verändern und zu neuen Geschäftsmo-dellen führen wird“, bewertet Professor August-Wilhelm Scheer, ehemaliger Präsident des IT-Branchenverbands Bitkom, das Cloud Computing unter dem unternehmensstrategischen Blickwinkel. Aber wo öffnen sich neue Geschäfts-felder durch Software, Plattform oder Infrastruktur als Service (SaaS, PaaS, IaaS)? „Besonders interessant ist der Einsatz von Cloud Computing etwa im Engineering-Bereich – bei CAD, Modellierung, Simulation und Rendering“, wird Scheer konkret. „An Ingenieurs-Arbeitsplätzen entsteht in bestimmten Phasen von Entwicklungsprozessen ein hoher Bedarf an Rechenleistung und spezi-ellen Tools, deren Anschaffung enorme Kosten verursacht.“ Durch die Verla-gerung solcher Ingenieursarbeitsplätze in die Cloud könnten die Ressourcen dann vielen Nutzern im Maschinenbau günstig zur Verfügung gestellt werden. Für Scheer ist das eine Chance gerade auch für die vielen kleinen und mittel-ständischen Einzelfertigung oder Kleinserienfertigung im internationalen Kon-text: „Hier – wie auch bei Entwicklungsprozessen in der Automobilindustrie – erwarten wir, dass sich Engineering Clouds als Community-Lösung entwickeln werden.“

Als bereits sichtbare Lösung – und zwar in der Logistik – verweist der Un-ternehmensgründer und Hochschullehrer auf einen Fraunhofer-Innovations-cluster: „Die Logistics Mall stellt auf einem virtuellen Marktplatz vernetzte-Dienstleistungen und Softwaresysteme zur Verfügung – die Logistikservices können miteinander bedarfsorientiert kombiniert und gebucht werden.“ Der besondere Clou der Logistics Mall ( www.ccl.fraunhofer.de): „Hier können Funktionen verschiedener Anbieter zu einem nutzerspezifischen Gesamtpaket geschnürt werden – und es lassen sich auch komplexe logistische Prozesse ganzheitlich darstellen, umsetzen und realisieren.“ Andere Projekte stellen mit Cloud Services vorhandene Informationen in der gesamten Logistikkette für alle beteiligten Partner in Echtzeit zur Verfügung. Damit lassen sich Logis-tikketten stabiler und effektiver steuern: „Informationen erfolgen nicht mehr nach Abschluss von Prozessen, sondern während des Ablaufs – durch die Par-allelisierung der Steuerung steigt etwa bei Kooperationen die Wettbewerbs-fähigkeit gegenüber Logistikkonzernen und ausländischen Konkurrenten.“

Ins Schlaglicht rückt ITK-Experte Scheer auch branchenübergreifende Szenari-en. Ein typischer Ansatzpunkt seien die Barrieren für die Nutzung von Cloud-Diensten in der Wirtschaft – Datenschutz, Informationssicherheit und Rechts-konformität: „Hierzu zählt insbesondere die Bereitstellung vertrauenswürdiger Identitäten, die eine sichere Gestaltung von Prozess- und Wertschöpfungsket-ten erlauben.“ Einer der Gewinner-Projekte des Trusted-Cloud-Wettbewerbs (www.trusted-cloud.de) des Bundeswirtschaftsministeriums sei hier angesie-delt. Und ein weiterer Gewinner entwickle „versiegelte“ Infrastrukturen: „Da-mit wird das Risiko des Datenmissbrauchs auf der Seite des Cloud-Anbieters mit technischen Mitteln beseitigt.“ Das könne dazu führen, dass große neue

Nutzergruppen von Cloud Services erschlossen werden – etwa der Mittelstand, der aus Private Clouds keinen spürbaren wirtschaftlichen Effekt erzielt, oder die öffentliche Verwaltung.

Clouds in Branchen und Unternehmen verschiedener Größenordnung unter-liegen oft spezifischen Anforderungen. „Deshalb ist absehbar, dass sich in Cloud-Ökosystemen Cloud Broker etablieren werden – Mediatoren zwischen einem konkreten Nutzer und den Cloud-Anbietern“, erklärt Scheer. Ein Cloud Broker sei ein vertrauenswürdiger Einstiegspunkt für den Kunden: „Er bündelt Services aus den Ebenen IaaS, PaaS und SaaS, kombiniert und orches triert Services und stellt sie unter Beachtung rechtlicher Rahmenbedingungen zur Verfügung.“ Die Grundlage für erfolgreiche Cloud-Geschäftsmodelle bilden für Professor Scheer partnerschaftliche Beziehungsgeflechte auf der Basis von Vertrauen in Netzwerken. „Und mit dem Cloud-Computing verändert sich die klassische Wertschöpfungskette der IT-Dienstleistungen – aus bislang line-aren Wertschöpfungsketten werden globale, komplexe und dynamische Wert-schöpfungsnetze.“

Vortrag im Webeinen hörens- und sehenswerten Vortrag über neue Business-Modelle durch IT von Prof. August-Wilhelm Scheer finden Sie beim Informatikinstitut des KIT: http://www.youtube.com/user/KITinformatik#p/c/75981FA2AB62eBF2/0/SyrNHZ-ql9U

Informationen rund um Cloud Computing: www.cloud-practice.de

Professor August-Wilhelm Scheer: „Das Cloud Computing verändert die klassische Wert schöpfungskette der IT-Dienstleistungen – aus bislang linearen Wertschöpfungsketten werden globale, komplexe und dyna-mische Wertschöpfungsnetze.“

foto

: So

ftW

ar

e a

G

26 Text. Rochus Rademacherkern. stück

Urlaubsbilder verschlagworten ist langweilig. Wer könnte das preiswert für mich machen? Genau diese Frage bewegt die Plattform Ama-zon Mechanical Turk ( www.mturk.com): Die MP3-Datei aus dem Diktiergerät wird zum Schriftdokument, Übersetzungen entstehen und Produktnummern auf Fotos werden iden-tifiziert. „People Services sind webbasierte Dienstleistungen, die über eine elektronische Schnittstelle angefordert und erledigt wer-den. Der skalierbare Service fußt dabei auf menschlicher Intelligenz, Wahrnehmungskraft oder physischen Tätigkeiten“, definiert Tobi-as Käfer vom Karlsruhe Service Research In-stitute (KSRI) des KIT. Er hat mit Kollegen als IBM-Studienprojekt die Leistungsfähigkeit der Menschenwolke in einem konkreten Anwen-dungsszenario erforscht.

„People Services lassen sich auch gut für hö-herwertige Aufgaben etwa im Innovationspro-zess einsetzen, versichert Projektbetreuer Ro-bert Kern, als Mitglied der Forschungsgruppe Service Innovation & Management von IBM an das KSRI abgeordnet. „Gerade der Einsatz einer öffentlichen People Cloud ermöglicht den Zugriff auf ein breites Spektrum an indi-viduellen Sichtweisen, Fähigkeiten und Erfah-rungen – dadurch bieten People Services ein effizientes Tool zur Generierung und Bewer-tung von Ideen.“ Außerdem lassen sich auf diese Weise Kunden in den Innovationsprozess integrieren, so der Experte für Service Science und Crowdsourcing. „Es gibt bereits Unter-nehmen, die diesen Ansatz als Dienstleis tung anbieten, beispielsweise das deutsche Unter-nehmen Innosabi aus München.“

Für das KSRI-Projekt hat Kern mehrere Mitspie-ler akquiriert: zwei Standorte eines Callcen-ters, die zur Mittagszeit nicht voll ausgelastet sind, eine private Krankenkasse, die ärztliche Diagnosen codieren will, sowie IBM mit der Plattformtechnologie, die Organisationen zu-sammenbringt. „Die Krankenkasse bekommt von Ärzten Rechnungen eingereicht mit Dia-gnose und den zu verrechnenden Posten“, er-klärt Käfer. Die Angaben lassen sich bestens in einer Datenbank ablegen und statistisch be-arbeiten, denn für Krankheiten gibt es den in-ternational standardisierten Code ICD-10, der aus dem „allergischen Exanthem“ das schlich-te Kürzel L23.9 macht. „Der Code ist eindeutig und vergleichbar – eine ideale Grundlage für Auswertungen“, führt der KSRI-Nachwuchsfor-scher aus. Und es existiert eine Software, die das Mapping automatisch durchführt. Doch drei Unzulänglichkeiten bremsen: „Die Soft-ware ist fehleranfällig, sodass Sachbearbeiter eingreifen müssen, die Zahl der Einreichungen steigert sich zu Ende des Quartals und die Ärzte pflegen ihren individuellen Schreibstil.“ So ist der Text nicht standardisiert, es tauchen Fachbegriffe und Umgangssprache auf, da gibt es unklare Abkürzungen und Trennzeichen al-ler Art – die Codezuordnung ist nicht trivial.

In dem KIT-IBM-Projekt greift das Team für die standardisierte Ausführung von Geschäfts-prozessen auf einen IBM Websphere Process Server in der Cloud zu und installiert diverse

Arbeitskraft in der Wolke – IBM und KIT testen People Clouds im anspruchsvollen GeschäftseinsatzÜber eine Menschen-Dienst-Plattform übernehmen Externe bedarfsgerecht Aufgaben – die sogenannte People Cloud folgt konsequent dem Gedanken des Cloud Computing. Die Forschung belegt: People Services rechnen sich.

Oben: Prozess der Codierung ärztlicher Diagnosen mit der People Cloud. Die Rech-nungsdaten des Arztes werden über eine Plattform an das Callcenter eingereicht, das Diagnosen in Code umsetzt. Die zurück-gegebenen Ergebnisse kann die Kranken-kasse nun statistisch auswerten.

Rechts: Ob IT-Cloud oder People Cloud: Grundcharakteristikum ist die Flexibilität, Kapazitäten nach Bedarf zuzuschalten..

Gr

afik

: ib

M

www . Digital-Zeitschrift.de

27Kern.stückRessourcen. Wie man sich Unterstützung aus der Wolke holt

Inhalte erstellen oder bereitstellen Texte verfassen Fotos oder Videos mit bestimmten Inhalten anfertigen

Ideen generieren

Inhalte überarbeiten Produkte kategorisieren Fotos klassifizieren Inhalte zusammenfassen

Informationen recherchieren Adressen oder Produktdaten recherchieren

Fotos mit bestimmten Eigenschaften finden Marktdaten recherchieren

Aufgaben mit spezifischen Anforderungen Designentwürfe Programmieraufgaben Übersetzungen und Transkriptionen

erhebungen und Umfragen Erfahrungsberichte Umfragen Betatests

Denkarbeit as a Service„Die People Cloud eignet sich für Arbeitsschritte, die in hoher, aber schwankender Zahl

wiederkehren“, kategorisiert Robert Kern, IBM-Service-Science-experte am KSRI. Die skalierbare

Arbeiterschaft wird elektronisch in Geschäftsprozesse eingebunden. Fünf typische

Aufgabenstellungen für eine People Cloud hat Kerns KSRI-Team eruiert:

Komponenten. Basis ist eine IBM-Datenaus-tausch-Plattform zwischen den Versiche-rungen namens Insurance Service Hub. Darauf ist die People-Service-Plattform implemen-tiert, auf die Callcenter-Agenten mit einem Web-Frontend zugreifen. Weil die Agenten medizinische Laien sind, helfen Recherche-Tools wie Semfinder online bei der Codierung – und eine Qualitätsmanagement-Lösung des KIT sorgt für die Absicherung des Ergebnisses, das in die Eingabemaske eingetragen wird.

Controller nicken„Wir haben die Plattform mit 18 Agenten getes-tet, die 500 Codierungsaufgaben in drei Stun-den bearbeitet haben – anschließend wurden die Ergebnisse noch von der Krankenversi-cherung verifiziert: Sie waren qualitativ hoch-wertig“, berichtet Käfer, der damit auch die Praxis tauglichkeit der Anwendung bestätigt sieht. Das Callcenter hat sein Geschäftsmodell als elektronischer Dienstleister weiterentwi-

ckelt, die Mitarbeiter waren zufrieden, weil sie Abwechslung im monotonen Alltag beka-men, und die Auslastung wurde erhöht. „Die private Krankenversicherung hat nun korrekte IDC-10-Codierungen ohne Nacharbeiten – auf dieser Basis sind Betrugsfälle leicht zu ermit-teln und flexiblere Tarifmodelle zu entwickeln“, zieht der Wissenschaftler ein Fazit. Und das Controlling nickt ebenfalls: Eine sichere Co-dierung kostet so nur wenige Cent. Der Web-sphere Business Monitor gibt Auskunft etwa über die Einhaltung von Service-Level-Verein-barungen, die durchschnittliche Bearbeitungs-zeit – oder über die Kosten pro Diagnose.

Ein K.-o.-Kriterium für People Services sind die Qualitätsmanagement-Mechanismen (QM) – die Bearbeitung irgendwo da draußen darf ja nicht schlampig erfolgen. „Da der Auftragge-ber ja in der Regel von der Skalierbarkeit der People Cloud profitieren möchte, ist es nicht zweckmäßig, das QM von ihm durchführen zu

lassen – er kann ja dann selbst zum Engpass werden“, erklärt Kern. „Praktikabel sind daher vor allem solche Ansätze, die das QM wiede-rum in die People Cloud auslagern.“

Der KIT-Lehrer verweist auf zwei praktikable Ansätze: Mehrheitsentscheid (Majority vote): Die re-dundante Vergabe derselben Aufgabe an mehrere Teilnehmer gleichzeitig und die nachfolgende Aggregation der Rohergeb-nisse in ein verlässliches Ergebnis.

Die Validierung von Rohergebnissen durch weitere Teilnehmer: Aufgesetzt als ein mehr-stufiger Prozess, verbessern sich die Ergeb-nisse kontinuierlich.

Die Wahl eines geeigneten QM-Verfahrens hängt nach Kerns Forschung ( www.sprin-gerlink.com/content/cm68234022524150/) von der Art der Aufgabenstellung ab: „So ist beispielsweise ein Mehrheitsentscheid nur für deterministische Aufgaben möglich, bei denen es ein wohl definiertes optimales Ergebnis gibt.“ Da die beiden Ansätze zu einer Verviel-fachung des Bearbeitungsaufwands führen, sei für reale Anwendungen vor allem die Effizi-enz der Qualitätsmanagement-Mechanismen ein wichtiges Kriterium. „Hierzu bieten sich Verfahren aus der statistischen Qualitäts-sicherung in Kombination mit dynamischen Gruppenentscheidungen an, mit denen defi-nierte Qualitätsziele mit minimalem Aufwand zu erreichen sind.“ ( www.springerlink.com/content/c718300217237723/)

„Durch People Services lassen sich Aufgaben scheinbar automatisieren, die bislang auf-grund technischer Beschränkungen von einer Automatisierung ausgeschlossen waren“, rich-tet KSRI-Mitgründer Professor Gerhard Satzger den Blick auf die Relevanz im Unternehmens-einsatz. „Gerade in elektronischen Ge-schäftsprozessen ergeben sich so ungeahnte Möglichkeiten, da nun nicht mehr generell zwischen automatischen und manuellen Ar-beitsschritten unterschieden werden muss“, so der Director Service Research der IBM Deutschland. Solange für das Ergebnis eines Arbeitsschritts die erforderlichen Qualität ga-rantiert werden könne, spiele es letztlich keine Rolle mehr, ob er manuell oder automatisch erbracht wurde: „Anstatt unter Kostendruck die manuellen Arbeitsanteile mehr und mehr zu reduzieren – und dabei eine Verschlechte-rung der Servicequalität in Kauf zu nehmen –, ermöglichen People Services, die Servicequali-tät durch flexible On-Demand-Einbindung zu-sätzlicher Arbeitskräfte zu erhöhen.“

Wenig Vorkenntnisse erforderlich

Wenig Klärungsbedarf bzgl. der Aufgabenstellung

AbrechnungsmodellHohe Anzahl ähnlicher Aufgaben

Geringer Umfang einzelner Tasks

Keine oder wenig Rücksprache und Koordination erforderlich

Abbildbar auf elektronische Schnittstellen

Schwankende Last bzw. Nachfrage

Komplexität

Infrastruktur

Interaktivität

Lastverteilung

Grafik: ibM

Für die Übertragung des People-Cloud-Konzepts auf Anwendungen zählen vier Kriterien:

28 Res. Pekt Text. Jan Rähm

Ein Plan für OuagadougouWas in der westlichen Welt zum Alltag gehört, ist in vielen Entwicklungsregionen die Ausnahme: Zum Beispiel digitales Kartenmaterial zum Navigieren und Planen. Ohne diese Karten jedoch wird die Entwicklung der Regionen erschwert und auch Entwicklungshilfe kommt oft nicht dort an, wo sie benötigt wird. Eine Lösung: das Projekt Open Street Map und seine Freiwilligen.

Keine Stadt – wo in Wahrheit eine ist. Keine Siedlung – wo in Wahrheit Millionen Menschen hausen. Die Welt der digitalen Karten sieht in wei-ten Teilen noch aus wie die Landkarten zur Zeit der großen Entdecker und Eroberer. Kleine Orte, große Städte und ganze Landstriche tauchen weder bei Google Maps, Bing Maps noch bei anderen kommerziellen Kartenanbietern auf. Mit ein wenig Glück sind zumindest die größten Straßen und die wichtigsten Eisenbahnstrecken verzeichnet. Doch da-rüber hinaus herrscht gähnende Leere im digitalen Weltatlas.

Statt Hauptstadt ein weißer Fleck„Die Stadt Ouagadougou, immerhin eine Millionenstadt im Sahel, tauchte weder auf Google Maps noch auf Open Street Maps noch auf anderen Online-Karten in irgendeiner Weise auf.“ So beschreibt der Ös-terreicher Helge Fahrnberger die Situation der Hauptstadt von Burkina Faso vor einigen Jahren. Wer das nicht glaubt, der braucht selbst heute nur einen Blick in die aktuellen Karten des Suchmaschinenanbieters Bing zu werfen. Dort ist Ouagadougou noch immer ein weißer Fleck. Ganz anders beim Open-Street-Map-Projekt: Hier ist die Hauptstadt des afrikanischen Landes mittlerweile hochdetailliert kartiert. Und da-ran war Helge Fahrnberger nicht ganz unbeteiligt.

Der Technologieunternehmer kennt Ouagadougou sehr gut und schon sehr lange. Er ist oft zu Gast in der Stadt. Mit Freunden hat er das Entwicklungshilfeprojekt Laafi.at ins Leben gerufen. Das realisiert Ge-sundheitsprojekte in kleinem Rahmen und Gesundheitsprojekte im ländlichen Raum. Doch schnell stießen die ehrenamtlichen Helfer an Grenzen. Wie die Projekte realisieren, wenn man nicht genau weiß, wo man ist? Helge Fahrnberger beschreibt: „Mir ist aufgefallen, dass es dort keine Straßenkarten gibt, die sich die Menschen leisten können oder die auch ohne ein Geografiestudium verständlich wären und die auch aktuell wären. Das heißt es gibt nichts Verfügbares. Kein Einwoh-ner dieser Stadt hatte jemals so eine Karte in der Hand.“

Die Bedeutung von Kartenmaterial für die Menschen vor Ort als auch für die Entwicklungshilfe besteht nicht nur einfach darin, zu wissen wo man sich befindet oder wo man hinfahren möchte. Die Karten sind essenziell wichtig, um Hilfsaktionen und Projekte zu planen. So beklagt beispielsweise Unicef in einem Fernsehinterview, dass Hilfsgelder und -güter in Millionenhöhe versickern würden. Niemand könne nachvoll-

ziehen, wo welches Geld und welche Güter gelandet seien. Mit Karten könne man deren Einsatz viel eher verfolgen und kontrollieren.

Ohne Karten kein FortschrittDie Karten sind auch für die Entwicklung der Regionen und der Strukturen unerlässlich. „Karten sind so ein bisschen ein Entwicklungs-parameter. Und wenn eine Stadt gut funktio-nieren soll, das beginnt damit, das man halt die kürzesten Wege kennt und sich nicht so oft verirrt, dann braucht es Kartografie“, meint Fahrnberger. Wie solle ein Staat etwa Steu-ern erheben, wenn er nicht einmal Steuerbe-scheide zustellen kann?

Es gibt außerdem eine politische Dimension. Zum Beispiel Slums: Nahezu am Rande jeder Großstadt in Afrika gibt es die gewachsenen Strukturen in Form von einfachen Hütten aus Lehm, Holz oder Blech. Dort leben Hundert-tausende Menschen. „Es passiert immer wie-der, dass die Siedlungen mit Bulldozern nie-dergewalzt werden, weil man den Raum für Parzellen, Bauprojekte oder für Verkehrspro-jekte braucht. Und dann ist es etwas ganz anderes, wenn diese gewachsenen Strukturen vorher kartiert wurden“, sagt Fahrnberger. Zu-dem hegt er die Hoffnung, dass vor allem auch westliche Geldgeber in der Entwicklungshilfe sich Gedanken machen, wo das Stadtviertel hin sei, das dort vorher noch war.

Digitale Karten am PC gemachtSowohl um den Bewohnern Ouagadougous zu Straßen- und Landkarten zu verhelfen, als auch um sich und dem Verein Laafi.at zu helfen, be-gann Helge Fahrnberger die Stadt zu kartieren. Er setzte sich an seinen Rechner, nahm ein

29Res. pektOpen Source. Open Street Maps für bessere Lebensumstände

www . Digital-Zeitschrift.de

paar Luftbildaufnahmen und zeichnete anhand derer die ersten Straßen des neuen Stadt-plans. Es sei ganz einfach gegangen: „Als ich gemerkt habe, wie schnell man eigentlich zu einem Ergebnis beim Kartieren kommt, habe ich darüber auf Helge.at gebloggt, meinem Weblog, und habe Leute aufgefordert, mir zu helfen und einfach mitzuzeichnen.“ Es klapp-te. „Im folgenden Jahr haben dann vielleicht eine Handvoll Leute aus den unterschiedlichs-ten Gründen mitkartiert und so kam es, dass Ouagadougou sehr schnell sehr genau ein-gezeichnet war“, beschreibt der Österreicher die Resonanz. Geholfen hat sicherlich auch, dass andere Blogger das Thema aufgriffen und wiederum darüber schrieben. Zu den Helfern gesellten sich so auch einige Einwohner Oua-gadougous. Darunter war auch einer, der zu der Zeit gerade in München studierte und von dem Projekt gelesen hat. Ein Glücksfall, da der Student seine Heimatstadt natürlich sehr gut kennt.

Heute ist Ouagadougou sehr detailliert be-schrieben. Dazu beigetragen hat auch das Prinzip der offenen Karten des Open-Street-Map-Projekts. Einer der sehr aktiven „Mapper“ ist der Deutsche Lars Lingner. Er beschreibt das Projekt so: „Open Street Map ist eine welt-weite Gemeinschaft. Aktuell sind es ungefähr 400.000 registrierte Benutzer, die Geodaten sammeln. Das Prinzip ist vergleichbar mit dem von Wikipedia. Nur bei Wikipedia werden Arti-kel erstellt und bei Open Street Map werden Geodaten erstellt.“ Wikipedia-Prinzip heißt: Jeder kann Karten erstellen, jeder kann Karten verändern und vor allem kann jeder die Karten verwenden.

Google für alle? Alle für Google!Auch Google hat nachgezogen. Der Such-maschinengigant hatte bis dato sein Karten-material gekauft und zur kostenfreien, wenn auch ausschließlich privaten Nutzung online zur Verfügung gestellt. Jedoch hatten die kom-merziellen Anbieter viele kommerziell uninte-ressante Gebiete nicht kartiert. Darum orien-

tierte sich Google am Prinzip der Open Street Map und rief sein Projekt Map Maker ins Leben. Das wurde anfangs nur in Entwicklungsländern angeboten. Mittlerweile können Freiwillige auch in Europa und Ameri-ka ihre Änderungen und Ergänzungen an den Karten vornehmen. Das Prinzip ist dasselbe wie bei Open Street Map. Es gibt aber einen ent-scheidenden Unterschied. Während die Daten beim freien Projekt in jeglicher Form frei bleiben, sind die Google-Karten weiterhin gewissen Einschränkungen unterworfen. Man darf sie nur zu privaten Zwecken kostenlos nutzen. Jede andere Nutzung muss gegen Bezahlung lizen-ziert werden.

Aber Google macht auch Ausnahmen. Denn frei verfügbare Landkarten spielen nicht nur in der Entwicklungshilfe und in der politischen Di-mension eine wichtige Rolle. Ebenso wichtig sind hochaktuelle Karten im Katastrophenfall wie jüngst in Japan und vor einigen Jahren in Haiti. Lars Lingner erzählt: „Google hatte damals Satellitenbilder zur Verfü-gung gestellt und diese durften von Open Street Map genutzt werden, um dort Daten abzuleiten. Das ist sonst mit den Googlebildern nicht erlaubt.“ Sowohl bei Google als auch bei der Open Street Map heißt das dann „Desaster Response“. „Es gibt eine Naturkatastrophe und die lokalen Gegebenheiten ändern sich sehr rasch. Durch Erdbeben werden Straßen unpassierbar und Gebäude stürzen ein. Tsunamis wie der in Japan verwüsten ganze Küstengebiete. Da ist es notwendig, sehr, sehr schnell an aktuelle Daten zu kommen“, erklärt Helge Fahrnberger. Er er-gänzt: „Sobald aktuelle Luftbilder nach der Katastrophe zur Verfügung stehen, fangen wir an, die Karte zu aktualisieren. Beispielsweise welche Korridore sind in diesen Gebieten bereits wieder passierbar? Welche sind bereits von Notfallteams frei geräumt und wieder befahrbar? Wel-che Straßen noch nicht?“

In den Krisenfällen arbeiten alle Organisationen Hand in Hand. Google liefert das Bildmaterial, die Open-Street-Map- und die Map-Maker-Akti-visten erstellen und aktualisieren das Kartenmaterial und die Hilfsteams vor Ort liefern aktuelle Informationen über den Zustand der Straßen und Wege. Die Daten ermöglichen dann zusammengefasst schnelle Hilfe, die Menschenleben retten kann. „Wir haben da sehr positives Feedback von den Helfern bekommen. Es gab Dankesbriefe oder Grüße, dass es ohne Karten sehr viel schwieriger geworden wäre“, freut sich Lars Lingner über die erfolgreiche Zusammenarbeit.

Zurück nach Burkina Faso. Heute ist Ouagadougou nahezu vollständig kartiert. Helge Fahrnberger will in Kürze den nächsten Schritt umset-zen. Er möchte die Straßenkarten den Menschen in die Hand drücken – nicht digital, sondern auf Papier. Dazu bereiten Fahrnberger und seine Freunde Druckdateien vor. Er ruft die Bewohner auf: „Verdient Geld damit. Druckt einen Stadtplan, der leistbar ist, und verkauft oder verschenkt ihn.“ Open Street Map also ganz pragmatisch gedacht.

Bei Bing-Maps (links) nur eine Straßenkreuzung: Quagadougou. Dank Open Street Maps (rechts) wird die Hauptstadt von Burkina Faso systematisch kartiert.

Mit Leidenschaft für Ouagadougou: Helge Fahrnberger hat die Kartierung der Hauptstadt in Gang gebracht.

foto

: pr

ivat

30 Auf. satz Text. Kai von Lewinski*

Ist das Grundgesetz denn dann überhaupt fit für das Internet? Bei über Sechzigjährigen möchte man eigentlich nachsichtig sein. Und so wäre es eine Möglichkeit, das Grundgesetz so zu lassen, wie es ist, und sich auf die einschlägigen Fachgesetze zu konzentrieren. Schließlich kom-men die USA mit ihrer sehr viel älteren Verfassung auch leidlich gut durch das Internetzeitalter. Ein aktuelles Telekommunikationsgesetz und ein durchdachtes Telemedienrecht wären wie eine Sehhilfe, mit der das Grundgesetz die Probleme und Konflikte des Internets klarer erkennen könnte. Flecken, wofür manche etwa das Zugangserschwe-rungsgesetz gehalten haben, könnte dann eine einfache parlamenta-rische Mehrheit von den Gläsern wischen. Allerdings kann die Brille mit eben dieser Mehrheit ebenso gut verschmiert und bekleckert werden.

Eine andere Möglichkeit wäre eine Frischzellenkur, indem man ein „Recht auf Internet“ in das Grundgesetz hineinschreibt. Mehr als ein Zweidrittel-Votum in Bundestag und Bundesrat wäre nicht erforderlich. Allerdings müsste man sich zuvor darüber einig sein, was denn ein „Recht auf Internet“ überhaupt beinhalten soll. Während man sich auf ein pauschales „Recht auf Internet“ über die politischen Lager hinweg rasch einigen könnte, wäre ein schärfer konturiertes Grundrecht um-stritten. Vor allem aber darf im rechtspolitischen Überschwang nicht übersehen werden, dass mit der Schaffung eines Grundrechts immer zugleich auch deren Beschränkungsmöglichkeiten kodifiziert werden. Die Aufnahme eines neuen Grundrechts in das Grundgesetz ist nicht notwendigerweise mit einem Freiheitsgewinn verbunden.

Signalübertragung als InfrastrukturfrageBis sich der Gesetzgeber aber besserer Internetgesetze oder einer Verfassungsänderung annimmt, ist es die Aufgabe der Juristen und der Rechtswissenschaft, durch Auslegung und Interpretation den al-ten Körper des Grundgesetzes für die heutige Zeit zu ertüchtigen. Und schon bei der ersten Übungseinheit erkennt man, dass die Verfassung seit jeher ein durchaus zeitgemäßes kommunikatives Schichtenmodell enthält. Zwar finden nicht die einzelnen Protokollebenen nach OSI Er-wähnung im Verfassungstext. Doch liegt dem Grundgesetz klar die Un-terscheidung von Signalübertragung und Inhaltsübertragung zugrunde. Beide Bereiche werden unterschiedlich, ja gegensätzlich strukturiert.

Die Signalübertragung wird als eine Infrastrukturfrage begriffen. Hier gewährt das Grundgesetz kein individuelles Grundrecht, sondern ver-

pflichtet in Artikel 87f Absatz 1 den Bund, „flächendeckend angemes-sene und ausreichende [Telekommunikations]Dienstleistungen“ zu gewährleisten. In Absatz 2 dieses Artikels wird zudem angeordnet, dass diese Dienstleistungen durch die Deutsche Telekom AG und an-dere Privatunternehmen erbracht werden. Was „angemessene und ausreichende Dienstleistungen“ sind, geht aus der Verfassung nicht hervor. Nach dem (im Normrang freilich unter der Verfassung stehen-den) Telekommunikationsgesetz (TKG) nennt § 78 die sogenannten Universaldienstleistungen. Sie umfassen herkömmlicherweise etwa das gedruckte Telefonbuch und Telefonzellen, natürlich aber auch einen Te-lefonanschluss und damit jedenfalls die Möglichkeit, über ein Modem ins Internet zu gehen. Mit der Umsetzung der europäischen Telekom-munikationsrichtlinien erweitern sich die Universaldienstleistungen um einen „funktionalen Internetzugang“, ohne dass damit aber eine be-stimmte Mindestbandbreite festgelegt wäre.

Dass diese allgemein und als Infrastruktur gewährleistete Telekommu-nikationsmöglichkeit auch von jedermann genutzt werden kann, ergibt sich aus dem allgemeinen Gleichheitsgrundsatz und ist in § 84 Absatz 1 TKG konkretisiert. Damit aber auch jedermann die marktförmig bereit-gestellten Dienstleistungen in Anspruch nehmen kann, werden Hilfsbe-dürftigen die entsprechenden finanziellen Mittel zur Verfügung gestellt. Dies war schon vor der – aus anderen Gründen umstrittenen – Hartz- IV-Reform von 2010/2011 Gegenstand der Grundsicherung und wird künftig nur etwas großzügiger berücksichtigt. Auch ist der beruflich oder privat benötigte PC von der Zwangsvollstreckung ausgenommen.

Bemerkenswert ist, dass es einen besonderen grundrechtlichen Schutz des Zugangs zur Telekommunikation nicht gibt. Das Fernmeldegeheim-nis des Artikels 10 GG schützt zwar die Vertraulichkeit der Internetkom-munikation, was aber voraussetzt, dass man überhaupt Internetzugang hat. Insoweit sind Einschränkungen des Internetzugangs nach dem Modell „Three Strikes and You’re Out“ verfassungsrechtlich recht leicht zu rechtfertigen.

Inhalte als GrundrechtsfrageWährend also der Staat die technische Infrastruktur des Internets ob-jektiv gewährleistet, die der Einzelne dann diskriminierungsfrei und nötigenfalls mithilfe finanzieller Unterstützung durch den Staat nutzen kann, hinsichtlich des Zugangs aber nicht durch ein spezielles Grund-

Zu alt zum Twittern und Chatten? Wie das alte deutsche Grundgesetz mit dem jungen Internet umgehtKennt das Grundgesetz ein „Recht auf Internet“? Wenn man hineinschaut, augenschein-lich nicht, denn das Wort „Internet“ ist der deutschen Verfassung fremd. Von „Telekom-munikation“ hat sie zwar schon in Artikel 73 Absatz 1 Nr. 7 und Artikel 87f gehört. In Artikel 10 Absatz 1 spricht es aber auch noch vom „Fernmelden“.

www . Digital-Zeitschrift.de

31Auf. satzNetzrecht. Gibt es e in Grundrecht auf Internet?

recht geschützt ist, verhält es sich hinsichtlich der Inhalte gerade an-dersherum.

Hier hat der Staat keine Gewährleistungsaufgabe. Er sollte sie auch nicht haben wollen. Denn die Informationsbereitstellung und Mei-nungsbildung in einer freien Gesellschaft soll grundsätzlich staats-frei und staatsfern stattfinden. Die öffentlich-rechtlichen Rundfunk-anstalten sind ein organisatorisches Relikt aus den Zeiten früherer Frequenzknappheit und nur mit dem Argument der Grundversorgung zu rechtfertigen. Im Internet, wo Meinungen in größter Vielfalt sprießen, kann man eine staatliche Grundversorgung aber für überflüssig und hinsichtlich des freien Meinungsbildungsprozesses sogar für schädlich halten. Auch sonstige Inhalte müssen vom Staat nicht bereitgestellt werden: E-Government ist schön und gut, verfassungsgeboten ist es nicht. Und E-Commerce ist als Teil des Geschäftslebens eben Sache des Geschäftslebens.

Ebenso wenig gibt es Leistungsansprüche in Bezug auf Internetinhalte. Solange wesentliche Teile des Internets, anders als Zeitungen und der (gebührenpflichtige) Rundfunk, kostenfrei zugänglich sind, bedarf es auch keiner Unterstützung finanziell Schwacher. Und eine Zuhörer- und Leserschaft muss der Staat weder online noch offline stellen; er könnte es auch nicht.

Dagegen werden die Inhalte im Internet durch Artikel 5 Absatz 1 Satz 1 GG (Meinungsfreiheit) grundrechtlich geschützt. Allerdings zeigen sich hier viele altersbedingte Unebenheiten der Verfassung. So schützt das Grundgesetz etwa nur „Meinungen“. Zwar wird das Tatbestandsmerk-mal „Meinung“ weit ausgelegt; Internetdienste, Code und Links lassen sich hierunter aber kaum subsumieren. Eher ein juristischer Schnörkel scheint, dass Youtube im verfassungsrechtlichen Sinne des Artikels 5 Absatz 1 Satz 2 GG kein „Film“ ist und Spiegel Online keine „Presse“, sondern beide „Rundfunk“ sind. Gewichtiger ist, dass der Empfang nicht-öffentlicher Meinungen nicht unmittelbar geschützt wird, sondern nur die Unterrichtung „aus allgemein zugänglichen Quellen“. Auch das

Zensurverbot in Artikel 5 Absatz 1 Satz 3 GG wird allgemein (nur) als Verbot der Vorzensur verstanden, also der Pflicht, Inhalte vor Veröffentlichung staatlichen Stellen vorzulegen. Dieser grundrechtliche Schutz läuft bei einer Nachzensur, wie es Internetsperren und die Löschung von Inhalten sind, leer.

Internet als VerfassungsfrageDas Grundgesetz steht dem Internet gegenüber wie viele Angehörige der ersten Nachkriegsgeneration: Es kommt damit klar, hat aber noch nicht alles verstanden. Zur Netz-neutralität etwa sagt es nichts. Doch sollten wir für eine „Internet-Verfassung des 21. Jahrhunderts“ das Grundge-setz nicht vorschnell aufs Altenteil schieben. Denn es ist gerade der Vorteil älterer Verfassungen, dass sie schon ganz andere Konflikte und Probleme bewältigt haben. Mit dem Grundgesetz wurde eine Diktatur abgewickelt, der Wiederaufbau gestemmt, der RAF-Terrorismus bewältigt und die deutsche Teilung überwunden. Wie auch sonst im Leben ist das Schweigen der Älteren zu Detail- und Tages-fragen nicht Resignation, sondern eher Klugheit. Eine jun-ge, bloggende und twitternde Internet-Verfassung würde viel schneller alt aussehen als die alte Tante Grundgesetz, die uns ein Telekommunikationsnetz gibt, Meinungsfreiheit garantiert und sich ansonsten weise zurückhält. Ein aus-drückliches „Grundrecht auf Internet“ dagegen wäre schon mit der nächsten Netzgeneration, die nicht mehr „Inter-net“ heißt, überholt.

* PD Dr. Kai von Lewinski, Jahrgang 1970, ist Jurist an der Humboldt-Universität zu Berlin und vertritt zurzeit einen Lehrstuhl am Karlsruhe Institut für Technologie (KIT). Lewinski arbeitete einige Jahre als Rechtsanwalt mit dem Schwerpunkt Datenschutzrecht in Frankfurt am Main. Das Informationsrecht ist sein Hauptarbeits- und Forschungs-gebiet; gegenwärtige Projekte sind das Recht in virtuellen und lo-gischen Räumen, Fragen der Informationsflut und Datenverschmutzung sowie die Geschichte des Datenschutzrechts. fo

to:

pr

ivat

foto

: Sh

utter

Sto

ck

G e s e t z

Grund-

32 Text. Ulrich SchmitzLern.Zeit

International und interdisziplinar – Lernen an der GraduiertenschuleMit der Exzellenzinitiative wurden an deutschen Universitäten Graduierten-schulen ins Leben gerufen. Viele von ihnen befassen sich auch mit Informatik. Internationale Doktorandinnen und Doktoranden forschen intensiv zusam-men und überwinden interdisziplinäre Grenzen. Arbeitssprache ist Englisch.

Wer an der Graduiertenschule Informatik an der Universität des Saarlandes promoviert, der darf sicher sein, dass er dies nicht im stil-len Kämmerlein tut. „Schon in der Vorberei-tungsphase, die allerdings einen sehr guten Bachelor-Abschluss voraussetzt, arbeiten die Graduierten mit Forschergruppen zusammen. In Vorlesungen erhalten sie das theoretische Rüstzeug für ihre Promotion“, erläutert Pro-fessor Raimund Seidel, Leiter der Graduier-tenschule. „Auch nach der Qualifizierungsprü-fung, die nach drei Semestern erfolgt, ist die Arbeit in Forscherteams ein Markenzeichen der Graduiertenschule. Dabei gibt es keine bindenden Zusagen über den Zeitraum der Stelle. Aber es funktioniert auch so“, weiß Dr. Michelle Carnell, Geschäftsführerin der Saarbrücken Graduate School of Computer Science. Sie betreut die derzeit 340 Informa-tik-Doktoranden, die an der Universität des Saarlandes, den beiden Max-Planck-Instituten und dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken forschen. Davon befinden sich fast 270 in der Dissertationsphase, haben also die Hür-de der Qualifizierungsprüfung hinter sich. In der Vorbereitungsphase auf diese Prüfung gilt der reguläre Semesterrhythmus. „Spezielle Angebote in den Semesterferien ermöglichen ein schnelleres Studium“, ergänzt Dr. Carnell. „Ferner fördern wir die Teilnahme an fachspe-zifischen Sommerschulen.“

Promotion mit QualitätAn der Saarbrücker Graduiertenschule können auch sehr gute Fachhochschulabsolventen promovieren. Das betont Professor Seidel. „Die Bewerbung läuft online. Bewerber rei-chen dort ihre Vita ein sowie den Nachweis, dass sie Englisch beherrschen, und ihre Zeugnisse, die überdurchschnittlich gut sein sollten. Außerdem erwarten wir ein Motiva-tionsschreiben“, erklärt er. Darüber hinaus

müssen sie zwei Referenzen benennen. „Von denen fordern wir ein Gutachten an.“ Pro Jahr werden in der Saarbrücker Graduiertenschule zweimal 25 Studenten mit Bachelor-Abschluss aufgenommen. Monatlich 800 Euro haben die-se Einsteiger im Säckel. Wer dann nach drei Semestern – manchmal auch ohne Master – zur Promotion in der Informatik zugelassen wird, erhält in der Regel eine volle Stelle als wissenschaftlicher Mitarbeiter. „Die Promoti-on ist aber eigentlich keine Anstellung“, meint Seidel, „sondern eine persönliche Entwick-lungsphase, in der man sich mit Begeisterung der Forschung widmet.“

Graduiertenschulen in Deutschland zeichnen sich durch eine Projektumgebung aus, die seinesgleichen sucht. Das zeigt sich schon an den „Töpfen“, aus denen die Gelder flie-ßen. Stellen werden finanziert aus den viel-fältigen Forschungsmitteln der beteiligten Einrichtungen; in Saarbrücken sind dies zum Beispiel die Universität des Saarlandes, das Max-Planck-Institut für Informatik und das Deutsche Forschungszentrum für Künstliche Intelligenz. Hinzu kommen Drittmittel vom Bund, vom jeweiligen Land oder der Deut-schen Forschungsgemeinschaft – und na-türlich auch von Firmen. In Saarbrücken sind dies zum Beispiel Google, Intel oder Bosch. „Es laufen sehr viel solcher Projekte“, erklärt Dr. Carnell. „Etwa in der Aids-Forschung, im Umfeld sicherer Software für die Autozuliefer-industrie, Bildanalyse/-verbesserung für die Medizin, Ray-Tracing im Kontext Games und virtuelle Welten, Sicherheit im Netz oder für verbesserte Suchmaschinen und schnelle Da-tenbanken.“

Schneller IdeentauschDoch es geht in den Graduiertenschulen nicht nur ums Fachliche. Ziel des Graduierten-programms der Universität des Saarlandes

foto

: u

ni Sb

/ ir

iS M

au

rer

www . Digital-Zeitschrift.de

33Lern.ZeitGraduiertenschule. Exzellenz für die Informatik

Christian Holler ist Doktorand an der Graduiertenschule Informatik der Universität des Saarlandes.

34 Text. Ulrich SchmitzLern.Zeit

(GradUS) ist es, Doktorandinnen und Dokto-randen ergänzende Qualifikationsmöglich-keiten zu bieten und zur Förderung einer ko-operativen, transdisziplinär und international orientierten Promotionskultur beizutragen. Dazu gehören Qualitätssicherung im Promo-tionsverfahren, allgemeine und fachliche Wei-terqualifizierung sowie die Einbindung in exzel-lente Forschungskontexte. Ganz wesentlich ist der so oft geforderte Blick über den Tellerrand. So profitieren etwa an der Graduiertenschule Computational Engineering der TU Darmstadt die Ingenieurwissenschaften, Mathematik und Informatik direkt voneinander. Während eine Doktorandin zum Beispiel über der Optimie-rung von Flugrouten im zivilen Luftverkehr brütet, geht es im nächsten Zimmer um ver-trackte Probleme der Nachrichtentechnik. Will man im Mobilfunk immer mehr aus immer weniger Leis tung herauszukitzeln, so muss die Leistung in sogenannten Multi- Input-Multi-Output-Systemen (MIMO) optimiert werden. Warum dann nicht einfach mal im Zimmer ne-benan fragen, ob die Kommilitonin eine Idee zu einem aktuellen Problem hat?

Die Darmstädter Graduiertenschule hat einen großen Vorteil: Gemeinsam arbeiten und for-schen alle Doktoranden der Schule an einem Ort – in einem Gebäude, das ehemals vom zwischen zeitlich aufgelösten Fraunhofer-Insti-tut für Integrierte Publikations- und Informa-tionssysteme IPSI genutzt wurde. Das steht für kurze Wege und schnellen Ideenaustausch. Hinzu kommen wöchentliche Berichte vor den

Kolleginnen und Kollegen, die Anlass für Nach-fragen bieten oder die eigenen Darstellungs-methoden optimieren.

Schwerpunkt MedizininformatikWie an kaum einer Stelle in Deutschland ha-ben sich für Forschungsvorhaben die Medizin, Informatik und die Lebenswissenschaften zur Graduiertenschule Informatik in Medizin und Lebenswissenschaften, Lübeck, verbündet. Die Universität Lübeck profitiert dabei von ihrer Geschichte als Medizinische Universität, der sich die Informatik und Robotik im Lau-fe der Jahre gezielt zugesellt hat. „Die Lübe-cker Graduiertenschule – in Englisch: Gradua-te School for Computing in Medicine and Life Sciences – gliedert sich in ein Programm für interdisziplinäre Forschung zwischen Medizin und Informatik und ein Programm für die An-wendung von Informatik in den Life Sciences“, erläutert Professor Achim Schweikard, Direktor des Instituts für Robotik und Kognitive Syste-me der Universität zu Lübeck und Sprecher der Graduiertenschule. „Beide Programme haben mit der Finanzierung durch die Deutsche For-schungsgemeinschaft und zusätzlichen exter-nen Drittmitteln Forschungszweige eingerich-tet, die sich zum einen mit Neurotechnologie, Navigation und Robotik und zum anderen mit medizinischer Struktur- und Zell-Biologie be-fassen.“

Die Heidelberg Graduate School of Mathe-matical and Computational Methods for the Sciences steht wie praktisch alle Graduier-

tenschulen für eine enge Anbindung an die Großen der Industrieforschung. Ein wichtiges integrierendes Element sind zum Beispiel die sogenannten Modellierungstage: „Hier können auch Unternehmen ihre Projekte vorstellen“, meint Dr. Michael Winckler, Geschäftsführer der Graduate School und Mitarbeiter am Inter-disciplinary Center for Scientific Computing, an dem die Graduiertenschule angesiedelt ist.

So berichtet etwa die nahe BASF Ludwigs-hafen auf einem solchen Modellierungstag nicht nur über „die chemischen Prozesse auf molekularer Ebene“, sondern unterhält auch zum Beispiel die Projektgruppe „Optimale Versuchsplanung“. Eine entsprechende Juni-orforschungsgruppe wird von BASF finanziell unterstützt. Dr. Stefan Körkel, der Leiter der Gruppe, hat eine Software namens VPLAN entwickelt, die BASF bereits benutzt. Sie op-timiert die Planung chemischer Experimente. „Diese lassen sich durch viele Variablen wie Temperaturabhängigkeit, Dauer oder Wahl des Messpunktes bestimmen“, sagt Körkel. „In der Versuchsplanung ist es entscheidend zu wissen, was, wo, unter welchen Bedingungen gemacht werden soll.“ Körkels Erfahrungen zeigen, dass mit den in Heidelberg weiterent-wickelten Werkzeugen 15 Experimente durch nun lediglich zwei ersetzt werden können. „Im Einzelfall lassen sich so bis zu 80 Prozent der Kosten einsparen.“ Modellierung hat halt viele Facetten. Und besser als an einer solchen Gra-duiertenschule könnte der Praxisbezug nicht sein.

foto

: u

niv

er

Sit

ät h

eiD

elb

er

G

foto

: u

ni Sb

/ M

an

uela

Mey

er

Studenten an der Heidelberg Graduate School (links).Prof. Dr. Raimund Seidel, Graduierten-schule Informatik UNI SB (rechts).

www . Digital-Zeitschrift.de

35

Die Diskussionen über die Berufstauglichkeit von Informatik-Absol-venten hat Tradition. Mit der Bachelor-Studienreform hat sie einen Auf-schwung bekommen. Dies zeigt sich beispielhaft am LERN.ZEIT-Beitrag „Qualifikation jenseits der Programmierung“ im ersten Heft von „Digi-tal“. Repräsentanten der Informatik schlagen dort ein ganzes Bündel von wünschenswerten Qualifikationen zur Stärkung der „Employability“ der Informatiker vor:

Förderung des Teamgeistes, Kenntnis der Auswirkungen von Program-men auf die Fachabteilung, Verständnis grundlegender Unternehmens-prozesse und Organisationskonzepte, die Fähigkeit, IT-Themen für Nicht-Fachleute artikulieren zu können. Deutlich wird ein Spektrum von betriebswirtschaftlichen und Praxiskenntnissen sowie sogenann-ter Soft Skills. Abgesehen davon, dass an vielen Informatik- und Wirtschaftsinformatik-Studiengängen das Einüben von Soft Skills längst an-gekommen ist und mancherorts schon eine überhöhte Rolle einnimmt, ist zu fragen: Was soll in das enge Modul- und Prüfungskorsett des Bachelor denn noch alles reingepackt werden? Muss es dann nicht zunächst darum gehen, den Bachelor strukturell zu entrümpeln und zu entbürokratisieren, um Luft für diese vermuteten wichtigen Kompetenzen zu schaffen?

Um nicht missverstanden zu werden: Die Konzentra-tion auf rein fachwissenschaftliche Inhalte macht kei-nen Absolventen ausreichend berufsfähig. Gedacht werden muss allerdings viel stärker an Konzepte, die über Appelle hinausgehen und ihren Ausgangspunkt bei den vorherrschenden ökonomischen und gesell-schaftlichen Kontexten nehmen.

Theorie und PraxisWenn es richtig ist, dass sich das Rad der Innova-tionen in der globalen Wirtschaft immer schneller dreht, so ist der Rucksack der Informatiker während des Studiums zu allererst mit methodischen und the-oretischen Konzepten zu füllen. Ihre Halbwertszeit ist deutlich stabiler als Moden und Mythen, die sich oft hinter nebulösen Forderungen nach sogenannter Pra-xistauglichkeit verbergen. Praxistauglichkeit ist zualler-erst in der Praxis zu lernen, sie ist im Studium nur mä-ßig zu simulieren. Studierenden müssen Kenntnisse aus vielen Disziplinen und Bereichen haben, weil ihre Tech-nik heute in alle gesellschaftlichen und ökonomischen Bereiche eingedrungen ist und dabei ist, diese umzu-wälzen. Das ist die Herausforderung, vor der das Infor-

matik-Curriculum aktuell steht. Nicht umsonst sprechen wir heute von der digitalen Gesellschaft. Erschwerend kommt die Ausdifferenzierung aller wissenschaftlichen Disziplinen hinzu. Diese hat die Komplexität so enorm anwachsen lassen, dass es eigentlich nicht mehr darum ge-hen kann, den Zipfel einer anderen Disziplin zu fassen zu bekommen. Macht es da nicht mehr Sinn, die Studierenden zu befähigen, sie zur Dialogfähigkeit mit anderen Disziplinen und Praxisvertretern über die entstehenden Wechselwirkungen auszubilden?

Wie könnte das gehen? Die Informatiker sprechen gern von Frame-works, die sie für mancherlei Zwecke entwickelt haben. Warum nicht Mühe darauf verwenden, ein transdisziplinäres Rahmenwerk der digi-talen Gesellschaft zu entwickeln, das unterschiedlichen Fachvertretern einen gemeinsamen Dialog ermöglicht, mit einer über die einzelne

Fachdisdisziplin hinausgehenden Termino-logie? Es geht dabei im Verständnis von Jürgen Mittelstraß um „Orientierungswis-sen, wie alles mit IT zusammenhängt“.

Akteure und ArchitektenInformatikern kann so klar werden, dass ihr Handeln und ihre Technik in gesell-schaftliche, ökonomische und kulturelle Kontexte eingebettet sind und es vielfäl-

tige Wechselwirkungen und Nebenfolgen zu bedenken gilt, die nur im Dialog mit Ak-

teuren, die andere Perspektiven vertreten, für sie sichtbar werden. Sie werden so am ehesten in der Lage sein, sich an permanent verändernde betriebs- und volkswirtschaftliche Umge-

bungsbedingungen anzupassen. Dieser Schritt von der Appell-ebene zur Gestaltung des transdisziplinären Dialoges in

Form eines Rahmenwerkes ist eine Herausforderung für die Informatik, die sie wohl nur transdiszipli-

när wird lösen können. Den Informatikern fällt dabei aus zwei Gründen ein wichtige Rolle zu: Ihre Akteure sind die Architekten der di-gitalen Gesellschaft und sie könnten so ein stets wiederkehrendes Grundproblem der Informatikausbildung angehen.

* Prof. Dr. Arno Rolf ist seit 1986 Universi-tätsprofessor an der Universität Hamburg,

Fachbereich Informatik.Seine Schwerpunkte sind Informatiksysteme in organisationen

und Gesellschaft, Umweltinformatik sowie interdisziplinäre Technikforschung. er hat an

der Universität Hamburg die Lehr- und For-schungsschwerpunkte Umweltinformatik, Technikbewertung und Technikgestaltung etabliert sowie den Studiengang Wirtschafts-informatik aufgebaut. er ist Mitgründer der Forschungs- und Be-ratungsstelle FoRBIT e. V., Hamburg, und des Instituts für Umwel-tinformatik GmbH, Hamburg (IFU).

Von Frameworks und Soft SkillsWelche Qualifikationen benötigen Informatiker?

foto

: Sh

utter

Sto

ck

Text. Arno Rolf* PRÜFSTAND. VON APPELLEN ZUR DIALOGFÄHIGKEIT Lern.Zeit

36 Hand. buch Text. Jürgen Frisch

Länger als vier Jahre hat es gedauert, bis SAP für die Cloud-Software Business ByDesign 500 Anwender vermelden konnte: „Seit dem vierten Quartal 2010 sehen wir in der Nachfra-ge für diese Lösung einen steilen Trend nach oben“, berichtet Peter Lorenz, Chef von SAPs On-Demand-Geschäft auf der SAP-Hausmesse Sapphire in Orlando. „Bis Jahresende wollen wir die Kundenzahl auf 1000 Anwender ver-doppeln.“ Die Walldorfer backen damit im On-Demand-Geschäft deutlich kleinere Brötchen als ehemals angestrebt. Ursprünglich hatte der Konzern einen raschen Zuwachs auf 10.000 Unternehmen angepeilt, die mehrere 100 Mil-lionen Euro Umsatz einbringen sollten. Rund um den Globus zählt SAP mehr als 100.000 Unternehmen zu seinen Kunden, die mit un-ternehmensweiter Standardsoftware, ihre Lie-ferketten steuern, ihr Personal verwalten so-wie ihre Buchhaltung erledigen.

Kosten sparenMit der On-Demand-Software betritt der bis-lang an größere Inhouse-Implementierungen gewohnte Standardsoftwerker Neuland. Un-ternehmen kaufen die Software nicht mehr, sondern nutzen sie auf Mietbasis über das Internet. Der Verzicht auf die Installation im eigenen Rechenzentrum soll ihnen laut Ver-sprechen des Herstellers Vorabinvestitionen in Hardware sowie eigenes Wartungspersonal

einsparen. Nach den Berechnungen von SAP soll die On-Demand-Lösung gegenüber einer On-Premise-Implementierung bis zu 90 Pro-zent Kosten einsparen.

Business ByDesign ist speziell an die Bedürf-nisse kleiner und mittlerer Unternehmen an-gepasst und unterstützt Geschäftsabläufe in der Buchhaltung, im Finanzwesen sowie in der Produktionsplanung und Kundenbetreu-ung. Bei der Produktentwicklung musste SAP viel Lehrgeld zahlen: die 2007 vorgestellte Ur-sprungsversion entpuppte sich beim Betrieb im SAP-Rechenzentrum als so teuer, dass die Walldorfer mit dem festgesetzten Preis von 133 Euro pro Nutzer und Monat keine Ge-winne machen konnten. Bis zum Marktstart im Juli 2010 begrenzte SAP daher den Betrieb von Business ByDesign auf 100 Testkunden und entwickelte die Applikation von Grund auf neu.

Isolierte KundendatenDie größte Änderung brachte im vergangenen Jahr der Umstieg von einer Single-Tenant-Architektur auf eine Multi-Tenant-Architektur. Seitdem laufen bei Business ByDesign ähn-lich wie bei der Cloud-Lösung Salesforce die Instanzen mehrerer Kunden auf einem Server. Vorher hatten die Walldorfer für jeden Kunden einen separaten Blade-Server eingerichtet. Über das aus anderen SAP-Lösungen bekann-

te Mandatenkonzept geht die neu entwickelte Multi-Tenant-Version weit hinaus, wie Rainer Zinow, Senior Vice President SAP Business ByDesign Stategic Solution Management, er-klärt: „Die verschiedenen Anwender wollen und dürfen voneinander nicht das Geringste wissen. Deshalb haben wir das Mandanten-konzept bis in die tiefsten Schichten so ge-ändert, dass die Systeme völlig voneinander isoliert sind.“ Mit dieser Trennung will SAP Großunternehmen vom Cloud-Betrieb über-zeugen, welche Business ByDesign lieber im eigenen Rechenzentrum betreiben wollen. Um releasefähig zu sein, werden die Einstellungen für kundenspezifische Anpassungen in einer eigenen Programmschicht gespeichert. So lässt sich das Kernmodul zentral austauschen, ohne individuelle Einstellungen anzutasten.

PartnerlösungenEine zweite große Änderung bestand darin, dass die SAP-Entwicklungspartner im Februar 2011 in der Version 2.6 von Business ByDe-sign ein sogenanntes Software Development Kit bekamen. Es handelt sich dabei um eine Entwicklungslösung für Branchenvarianten und Funktionserweiterungen, welche eben-falls in einer eigenen Software-Schicht lau-fen. Damit wurde Business ByDesign zur einer Plattform für die On-Demand-Angebote von SAP-Partnern. Diese entwickeln ihre Erweite-

Mit Business ByDesign sucht SAP den Weg in die CloudMit dem On-Demand-Produkt Business ByDesign will der Standardsoftwerker SAP in die Fußstapfen des Cloud-Pioniers Salesforce treten. Dank Multi-Tenant-Architektur sind die Kosten für das Hosting der Applikation gesunken. Nun bauen die Walldorfer den Partnerkanal aus.

37Hand. buchPocket-ERP. Wie Unternehmenssoftware auf das Smartphone kommt

www . Digital-Zeitschrift.de

rungen auf Basis von Microsofts Visual Studio und kompilieren sie dann in der SAP-eigenen Programmiersprache ABAP. Mit dem Software Development Kit können die Partner zunächst projektspezifische Anpassungen vornehmen, später wollen die Walldorfer ihnen auch die Entwicklung allgemeiner Funktionserweite-rungen und Branchenlösungen ermöglichen. „Wir machen in jeder neuen Version von Busi-ness ByDesign für die Partner mehr Funkti-onen, Datentypen und Prozessmodelle ver-fügbar, an die sie ihre Funktionserweiterungen andocken können“, berichtet Christian Horak, Global Head SAP Business ByDesign Solution Marketing. Seit Februar 2011 bringt SAP alle sechs Monate ein Update der On-Demand-Software auf den Markt.

Bis zur Version 2.6 unterstützte Business ByDesign ausschließlich das iPhone als mo-biles Gerät. Seitdem sind iPad und Blackberry als mobile Zielplattformen hinzugekommen. Im für August dieses Jahres angekündigten Feature Pack 3.0 sollen Android und Windows Phone 7 folgen. Darüber hinaus sollen Partner eigene Mobilanwendungen für die Ausführung der Business-ByDesign-Web-Services entwi-

ckeln können. Neben den Entwicklungs- und Vertriebspartnern verkauft auch SAP selbst Business ByDesign, und zwar bislang bei zwei Drittel aller Verträge. „Die ersten Abschlüsse haben wir selbst gemacht, weil nur wir das System gut genug kannten, um sicherzustel-len, dass die Lösung für den Kunden passt“, berichtet SAP-Marketer Horak. „Nun erweitern Partner die Funktionalität der Software, und wir wollen bis Jahresende deutlich mehr als die Hälfte aller Verträge über den Partnerkanal abwickeln.“

Extras im App-StoreEine Erweiterung des Vertriebsmodells von Business ByDesign stellt der derzeit im Beta-test laufende App-Store dar. Ähnlich wie beim Web-Store von Apple bieten SAP-Partner dort Zusatzapplikationen an, welche die Funkti-onen und den Industriefokus von Business ByDesign erweitern. SAP hat derzeit rund 50 Entwicklungspartner für Business ByDesign, und diese haben im Appstore etwa 40 Anwen-dungen hinterlegt. Beispiele sind der Webshop Hybris und der Integrations-Hub des Anbieters Crossgate. „Im ersten Schritt verknüpfen viele Partner ihre bestehenden Anwendungen mit

Business ByDesign, im zweiten Schritt entwi-ckeln sie Reports und Planungssysteme, die auf unserer Plattform laufen“, erklärt Horak.

Eine Erweiterung des angepeilten Anwender-kreises hat SAP gerade auf der Hausmesse Sapphire vorgestellt: Zielte Business ByDesign bisher ausschließlich auf Mittelstandsunter-nehmen, will Lorenz das Produkt künftig auch Großkonzernen für ihre Filialen schmackhaft machen. Das dürfte den Vertrieb in der SAP-Bestandskundenbasis erleichtern, allerdings kommen die Walldorfer dann in scharfe Kon-kurrenz zu den Microsoft-Lösungen Dynamics Nav und Dynamics Ax, die ebenfalls stark auf Filialen von Konzernen zielen. „Business ByDe-sign bewegt sich gerade in Richtung größerer Unternehmen, genau so, wie es R/3 in den Neunzigerjahren getan hat“, erläutert Peter Russo, Managing Director von Pierre Audoin Consultants in den USA. „Zunächst trifft die-se Verschiebung nur einige wenige Projekte, aber sie wird zunehmen, wenn SAP-Partner mit Großunternehmen ins Geschäft kommen.“ SAP-Manager Lorenz bestreitet eine Verschie-bung des Schwerpunkts vom Mittelstand auf Großunternehmen und will zudem die Imple-

foto

: Sh

utter

Sto

ck

38 Hand. buch Text. Jürgen Frisch

mentierungen in Filialen von Großbetrieben nicht in das angestrebte Ziel von 1000 Busi-ness-ByDesign-Kunden bis zum Jahresende einrechnen.

Die in Fachkreisen diskutierte Frage, ob das On-Demand-Produkt künftig so funktional ausgeweitet wird, dass es eines Tages den In-house-Lösungen All in One und Business Suite Konkurrenz macht, verneint SAPs Co-Vorstand Jim Hagemann Snabe energisch: „Der Wert von On-Demand-Lösungen liegt darin, dass sie so einfach wie möglich sind. Wir können Business ByDesign daher nicht funktional auf-bohren, denn damit würden wir unser ange-peiltes Ziel verfehlen.“

Sales On DemandAn die Fachabteilungen der Konzerne richten die Walldorfer die sogenannten Line of Busi-ness Applikationen, wie etwa die auf der dies-jährigen CeBIT angekündigten Vertriebslösung Sales On Demand. Die Technologie dieses Produkts basiert auf Business ByDesign. Wie Letzteres arbeitet Sales On Demand mit der In-Memory-Technologie und unterstützt den Zugriff per Mobilgeräte. Partner erhalten ein Software Development Kit, um Abteilungslö-sungen wie Verkaufssteuerung, Personalver-waltung oder Reisekostenabrechnungen zu erstellen. SAP möchte die Cloud damit in ein Web für Business-Applikationen verwandeln, in dem Mitarbeiter über Unternehmensgren-zen hinweg zusammenarbeiten.

„Die Applikation zielt komplett auf Außen-dienstmitarbeiter und verfügt im Gegensatz

zu Konkurrenzangeboten von Salesforce nicht über Marketing-Funktionen.“ Sie wurde als kollaboratives Tool entwickelt und enthält Funktionen für Content-Verwaltung und Ana-lysen. Ähnlich wie Business ByDesign arbeitet SAP Sales On Demand mit der In-Memory-Technologie und unterstützt den Zugriff über Mobilgeräte. Als technisches Highlight sieht Josh Greenbaum, Analyst bei Enterprise Appli-cations Consulting, die enge Integration mit Business ByDesign: „SAP Sales On Demand ist eng mit den Prozessen und Daten von SAP Business ByDesign und SAP Business Suite verknüpft. Salesforce kann eine derart enge Integration nur über Partner anbieten.“

Eine wichtige Voraussetzung für den Markt-erfolg von Business ByDesign ist der Partner-vertrieb. Eric Duffaut, Executive Vice President und General Manager Global SME bei SAP, ver-neint die Frage, ob er für die On-Demand-Lö-sung einen eigenen Vertriebskanal aufbauen will: „Unsere Partner werden künftig sowohl Inhouse-Lösungen wie Business One und All in One, als auch die On-Demand-Lösung Busi-ness ByDesign verkaufen. Wer Bedarf an tief-er Branchenfunktionalität hat, bekommt All in One mit den darin enthaltenen Industriefunk-tionalitäten, wer hingegen auf Vorabinves-titionen und ein hauseigenes Rechenzentrum verzichten will, dem empfehlen wie Business ByDesign.“

Neue GeschäftsmodelleFür den Vertrieb von On-Demand-Anwen-dungen müssen Partner allerdings ihr Ge-schäftsmodell anpassen, wie SAP-Marketer

Horak erklärt: „Beim Verkauf von Inhouse-Lösungen verdienen die Lösungspartner mit der Implementierung Geld. Im On-Demand-Geschäft hingegen fällt die Implementierung weitgehend weg, und die Systemhäuser ver-dienen am Lizenzverkauf und an ihren Zu-satzleistungen wie etwa industriespezifische Anpassungen oder Reporting-Anwendungen.“

Die Kannibalisierung zwischen den hauseige-nen On-Premise- und On-Demand-Lösungen schließt Horak nicht generell aus, sie werde sich seiner Meinung nach aber auf einem sehr niedrigen Niveau bewegen: „Generell spre-chen wir mit Business ByDesign einen völlig neuen Markt an. Wettbewerb mit anderen Lö-sungen herrscht nur bei Überschneidungen, und das ist ein sehr geringer Teil. Business One zielt auf Unternehmen bis zu 100 Ange-stellten, während sich Business ByDesign am besten für Betriebe zwischen 50 und 500 An-gestellten eignet. All in One wiederum zielt auf Unternehmen zwischen 250 und 2500 Mitar-beitern und zeichnet sich durch seine reichhal-tigen Branchenfunktionen aus.“

Business ByDesign ist derzeit eines der ganz wenigen betriebswirtschaftlichen Gesamtpa-kete, die im On-Demand-Modus angeboten werden. Cloud-Pionier Salesfore vertreibt eine Kundemanagement-Lösung, welche sich zwar mit Partnerangeboten erweitern lässt. Ledig-lich der US-Anbieter Netsuite bietet ebenfalls eine komplette Unternehmenslösung aus der Cloud. „Netsuite verfolgt ein ähnliches Konzept wie wir, aber deren Lösung ist viel älter als die unsere und bietet bislang keinen Anschluss an

foto

S:

Sa

p

39Hand. buchPocket-ERP. Wie Unternehmenssoftware auf das Smartphone kommt

Innovationen…

… findet man nicht so leicht!Aber Sie verstehen sich als Innovator, Erfinderoder Entrepreneur. Sie entwickeln innovativeHardware und Software oder Anwendungenund Plattformen und haben damit vielleichtschon ersten wirtschaftlichen Erfolg. Dann bewerben Sie sich bis zum 31.07.2011 um denInnovations- und Entrepreneurpreis der GI.Mehr Informationen dazu auf www.innovationspreis.gi.de.

meh

rwer

t

GI – Gesellschaft für Informatik

[email protected]

GI-1184 Anzeige Innovationspreis 2011_digital 4C 188x85 06.06.11 08:25 Seite 1

Mobilgeräte und integriert auch keine sozialen Netze“, erklärt SAP-Marketer Horak. „Business ByDesign berücksichtigt beides, und wir bau-en die Applikation gerade als Plattform für weitere On-Demand-Anwendungen aus.“

Das Analystenurteil über Business By Design fällt positiv aus: „Umfangreiche Funktionali-täten sind in einer einheitlichen Suite zusam-mengefasst und bilden den Unternehmensall-tag und die Compliance-Anforderungen gut

und umfassend ab“, erklärt Frank Naujoks, Analyst beim Schweizer Consulting-Haus In-telligent Systems Solutions. „Für einen Groß-teil der Unternehmen zwischen 50 und 500 Mitarbeitern aus den Branchen Professional Services und Manufacturing stellt das Produkt eine prüfenswerte Option dar. Der niedrige Einstiegspreis macht die Lösung einem breiten Publikum zugänglich.“

Branchenweit sind On-Demand-Lösungen bis-lang ein kleines, aber wachsendes Geschäft. Nach Daten des US-Marktforschungshauses Gartner steigen die weltweiten Umsätze mit Cloud-Lösungen in diesem Jahr um 16,2 Prozent auf 10,7 Milliarden Dollar. Den Ge-samtmarkt für unternehmensweite Standard-software schätzt Gartner auf 154 Milliarden Dollar. Die Akzeptanz von Business ByDesign in den kommenden Jahren wollen oder kön-nen weder Gartner-Analysten noch SAP-Ma-nager abschätzen: „Im Ländervergleich liegen die USA vorne, weil dort die Anwender alles Neue schätzen, und sie generell eher bereit sind, ein Risiko einzugehen“, berichtet SAP-Manager Duffaut. „Unternehmen in Deutsch-land und Frankreich verhalten sich im Vergleich dazu wesentlich konservativer.“

Start in ChinaVöllig andere Erfahrungen könnte der chine-sische Markt bringen. SAP hat gerade eine strategische Partnerschaft mit dem weltgröß-ten Telco-Provider China Telecom angekündigt,

um Business ByDesign zu lokalisieren und vor Ort zu hosten. Die chinesische Regierung lässt nur Cloud-Angebote zu, bei denen die Server nur im eigenen Land laufen. „Dieser Vorstoß kann ein Beispiel abgeben, wie ein neuartiges Betriebsmodell in aufstrebenden Märkten wie China gestartet wird und Partnerschaften in anderen Industrie ländern anschiebt“, erklärt PAC-Analyst Peter Russo. Bislang übernimmt SAP das Hosting von Business ByDesign aus-schließlich selbst in seinen Rechenzentren in St. Leon-Rot für Europa und Philadelphia für Ame-rika und Kanada.

Jenseits von Land und Branche stellt sich die Cloud-Akzeptanz auch als Generationenfrage dar: „Für junge Leute, die mit Mobiltelefon und iPod aufgewachsen sind, ist der Betrieb einer Applikation im Internet ein ganz norma-ler Vorgang“, berichtet SAP-Manager Duffaut. „Je jünger die Firmenlenker sind, desto eher werden sie Cloud-Systeme akzeptieren.“ SAPs Marketingmann Horak zieht die Linie zwischen Inhouse- und Cloud-Systemen anhand von Anwendungstypen: „On-Demand-Lösungen werden Inhouse-Systeme wahrscheinlich nie komplett ersetzen, sondern es wird künftig eine hybride Landschaft aus beiden Betriebs-varianten geben. So könnten kollaborative Anwendungen wie Sales On Demand in der Cloud betrieben werden, während transakti-onsgetriebene Fertigungs- und Planungssys-teme mit einer starken Industrieausprägung im hausinternen Rechenzentrum laufen.“

Das Hosting von Business ByDesign übernimmt SAP in seinen Rechenzentren für kleine und mittlere Unternehmen.

40 Aus. sichten Text. Detlev Karg

Vom Schreibtisch in den OperationssaalPDF-Dateien ersetzen die Patientenakte, inklusive meterlanger Kardiogramme, die mit speziellen Dokumentenscannern erfasst werden. Wie klassische IT-Lösungen aus dem Büroumfeld heute im Dienste des Patienten genutzt werden, zeigt ein kleiner und sicher nicht vollständiger Streifzug durch deutsche Praxen und Kliniken.

41Aus. sichtenIT-Lösungen. Innovationen für Kliniken und Praxen von morgen

www . Digital-Zeitschrift.de

diese digitale Röntgenerweiterung für meine Praxis bezahlt, weil ich Filme, Entwicklungs-flüssigkeiten und Archivplatz einspare. Zudem verbrauchte unsere Entwicklungsmaschine immens viel Strom“, rechnet Nils Samelin vor.

Präsentation und OP-BesprechungAbschied vom klassischen Röntgenfoto ge-nommen hat auch der kommunale Klinikver-bund der Hansestadt Bremen, die „Gesund-heit Nord Klinikverbund Bremen GmbH“. Sie nutzt heute digitale Röntgenaufnahmen im klinischen Alltag und hat auf diese Weise ihre Arbeitsabläufe grundlegend vereinfacht. In diesem Fall kommen IT-Systeme zum Einsatz,

Digitales RöntgenDer Lübecker Orthopäde Nils Samelin hat sich den Praxisalltag ein we-nig einfacher gemacht. Seit einigen Wochen steht ein Laserscanner in seiner Praxis, mit dem er seine Röntgen-Aufnahmen digitalisiert. Das Entwickeln der Röntgenbilder entfällt ebenfalls – und damit eine ganze Reihe von Arbeitsprozessen, die für jeden Arzt mit eigenem Röntgen-system lästig und kostentreibend sind: Archivplatz und das Vorhalten der Fixierflüssigkeiten sowie der Entwicklungsmaschine. Die Lösung: eine digitale Ergänzung seiner bestehenden Röntgenanlage. Statt eines Films sitzt jetzt eine vielfach belicht- und löschbare Platte in der Film-kassette. Das Röntgenbild scannt der Orthopäde dann von der Platte mit dem Laserscanner ein – und schon ist die Bilddatei an jedem PC in der Praxis aufrufbar. Vor allem Ärzte wie Samelin, die eine Praxis neu übernommen haben und noch lange betreiben werden, entschei-den sich für diese Investition. „In etwas über sechs Jahren macht sich

42 Aus. sichten Text. Detlev Karg

die vielen eher von Präsentationen oder dem digitalen Heimkino her geläufig sind: Beamer. In diesem Fall han-delt es sich um Geräte der Serie Canon XEED SX80 Mark II Medical. Hersteller wie Canon bieten schon seit geraumer Zeit solche Systeme an, die speziell für den Medizinbereich abgestimmt sind. Denn nicht mit jedem x-beliebigen Bea-mer lassen sich auch hochauflösende Röntgenaufnahmen an die Wand werfen.

Dieser in Bremen kürzlich vollzogene Schritt ist nur logisch. Denn seit etlichen Jahren schon arbeitete das Klinikum Ost in Bremen als Pilotklinikum mit einer digital basierten radiologischen Archivlösung, kurz PACS (Picture Archiving and Communication System). Diese haben die in den Kli-niken noch weitverbreiteten Röntgenfilmbilder abgelöst, was Archivplatz spart und die Verfügbarkeit der Aufnah-men im Klinikalltag deutlich verbessert. „Unsere digitalen Röntgensysteme liefern hochauflösende Bilddateien, die die behandelnden Ärzte an Workstations jederzeit aufru-fen können – die Zeit der Bildabzüge, die gegen das Licht gehalten werden, ist bei uns vorbei“, sagt Thomas Jacob, Abteilungsleiter interne Organisation im Servicebereich Technik- und des Klinikverbundes Gesundheit Nord. Statt dessen kommen nun die Beamer zum Einsatz.

Für die Befundung werden dabei zuerst die Röntgenauf-nahmen von Radiologen an eigens dafür kalibrierten Dop-pelmonitoren betrachtet. Hier entstehen die Diagnosen, die später im Klinikalltag den behandelnden Ärzten zur Verfügung stehen. Grundsätzlich gilt: Die Bildwiedergabe muss dem strengen medizinischen Standard DICOM (Di-gital Imaging and Communications in Medicine) entspre-chen. Nach diesem sind die Monitore kalibriert. Der XEED SX80 Mark II Medical von Canon ist ebenfalls mit einem DICOM-Preset ausgerüstet. „Er erlaubt darum, sehr exakte Bilddarstellungen im medizinischen Bereich, die deutlich über dem Durchschnitt anderer Systeme liegen“, erläutert Frank Oerke vom Bremer Systemanbieter Larivière, der die Gesundheit Nord bei dem Projekt betreut und berät.

Das Unternehmen besitzt seit 1996 Expertise im Bereich der Visualisierung. Der Bereich Medical Digital Imaging be-schäftigt sich mit der Digitalisierung von Röntgenbildern mittels hochwertiger Scantechnologie sowie mit der Prä-sentation radiologischer Daten. Zunächst wurde im Sep-tember 2010 das Klinikum Ost in Bremen mit einem radi-ologischen Besprechungsraum ausgestattet und dort zwei der Beamer installiert. Nach der Erprobung stand fest, dass sämtliche Kliniken des Verbundes mit dieser Technologie ausgestattet werden sollten, um die Abläufe zu rationali-sieren. Für die radiologischen Demonstrationen gibt es in den Kliniken feste Termine mit den behandelnden Ärzten. Bei einen pathologischem Befund besprechen die Radiolo-gen die Ergebnisse mit ihren klinischen Kollegen, die dann über die weitere Behandlung entscheiden. Gleiches gilt auch für den Bereich der Onkologie, um den Verlauf und die Heilung von Krebserkrankungen zu verfolgen.

Über die hausweite Bildverteilung lassen sich die Aufnah-men zusätzlich auf allen Büro-PCs der Mediziner betrach-

ten, oder in den Stationszimmern. Die Ärzte, so Thomas Jacob, seien mit der neuen Lösung hochzufrieden. „Das liegt unter anderem an der LCOS-Technologie, mit der dieser Beamer ein klares Alleinstellungsmerkmal besitzt, da er die Vorteile von LCD und DLP-Technologie, die üblicherweise in Projektoren zum Einsatz kom-men, kombiniert“, erklärt Andreas Herrnböck von Canon Deutschland. Dabei werden die Schwächen der LCD-Technologie im Schwarz-Bereich – naturgemäß entscheidend im Be-reich der Radiologie – ebenso ausgeglichen wie die nicht immer exakte Farbwiedergabe der DLP-Beamer. Da das menschliche Auge Schwächen im Schwarzbereich hat, sind diese hohen Anforderungen im Bereich der Radiolo-gie unerlässlich. „Die Monitore werden genau deshalb kalibriert: Der DICOM-Standard elimi-niert unsere optischen Defizite und ermögli-cht es Radiologen, feinste Abstufungen im Schwarzbereich zu erkennen“, erläutert Frank Oerke vom Systemhaus Larivière. Dort werden die Projektoren vor der Installation mit dem Kalibrationssystem AcuScreenPRO eingestellt und können jederzeit mit diesem System vor Ort nachkalibriert werden. „So können wir die Beamer von Canon in jedem Raum so einstel-len, dass sie den Lichtverhältnissen entspre-chen. Damit erhalten unsere Ärzte in den Be-sprechungen allerbeste Bilder, die an die Wand geworfen werden“, ergänzt Thomas Jacob.

Virtuelle Operationsplanung In Bremen hat auch ein Forschungsinstitut sei-nen Sitz, das in der Analyse und Visualisierung medizinischer Bilddaten auf unterschiedlichen Gebieten führend ist: Das Fraunhofer-Institut für Bildgestützte Medizin MEVIS. Bereits in die medizinische Praxis eingezogen ist die am MEVIS-Institut entwickelte 3-D-Software HepaVision, die derzeit an fünf deutschen Kliniken bei computernavigierten Leberope-rationen eingesetzt wird. Die Kliniken haben HepaVision im Rahmen des vom Bundesfor-schungsministerium geförderten FUSION-Pro-jektes getestet, das Ende 2010 ausgelaufen ist. Unter den Kliniken ist auch das Asklepios-Klinikum Barmbek in Hamburg. Vor allem bei Leberkrebs kommt das Bremer Programm hier zum Einsatz. Bei Tumorerkrankungen der Le-ber ist die Entfernung großer Teile des Organs noch immer die einzige Therapie, die Erfolg verspricht. Ein Hindernis stellen aber oft der individuell unterschiedliche Aufbau des Or-gans und die Lage des Tumors dar. „Um nach der Operation ausreichend funktionieren zu können, muss eine menschliche Leber noch rund 25 Prozent ihres ursprünglichen Gewe-bes aufweisen und bei komplizierten Eingrif-fen setzen wir heute auf das 3-D-Modell, mit

43Aus. sichtenIT-Lösungen. Innovationen für Kliniken und Praxen von morgen

Aufnahmen, bei denen wir vorab diese Details nicht erken-nen können“, so Karl Jürgen Oldhafer. Gleichzeitig wird die optimale Schnittführung für die Chirurgen ermittelt, die ei-nerseits den Krebs weiträumig entfernt, andererseits aber eine funktionstüchtige Restleber belässt. Jedes einzelne Blutgefäß wird am Bildschirm vorab sichtbar. Die so ent-standene Gefäßlandkarte lässt sich über einen Ultraschall-kopf während der Operation mit dem Gewebe abgleichen. Über einen ebenfalls ultraschallgesteuerten sogenannten Dissektor wird dann das kranke Gewebe exakt auf der ge-planten Linie entfernt. Die Software hilft auch gegen das Wiederkehren von Lebertumoren. Der Hintergrund: die meisten Lebertumore sind Metastasen eines Dickdarm-krebses. Erfolgt eine Chemotherapie, verschwinden zwar diese Metastasen, wie Karl Jürgen Oldhafer erläutert: „In 80 Prozent der Fälle aber kehren sie zurück. Die Software fusioniert die Daten aus der Zeit vor und nach der Behand-lung. So blenden wir diese Stellen optisch im Modell wie-der ein, und entfernen sie dann prophylaktisch. Das ist ein großer Vorteil, den wir dank IT-Technologie erzielen.“ Mehr aus den Bildern zu holen, als mit bloßem Auge sichtbar ist, daran arbeiten die Fraunhofer-Forscher weiter. Über 5000 Patienten wurden weltweit mit Unterstützung der MEVIS-Software bereits operiert. Jetzt setzt auch das welt-größte Leberzentrum, das Eastern Hepatobiliary Surgery Hospital (EHBH) in Shanghai, auf diese Technik. Damit ist diese Technologie noch nicht am Ende, so MEVIS-Sprecher Prause. „Die bildgestützte OP-Planung ist auch für andere Organe wie die Bauchspeicheldrüse oder die Nieren denk-bar. Wir arbeiten auch an modellbasierten Verfahren für die minimalinvasive Tumortherapie, bei der Applikatoren in die Leber eingeführt werden, um direkt vor Ort Tumoren durch Hitze zu zerstören“, erläutert er. Derzeit hängt die Effizienz

dem wir wesentlich bessere Operations-ergebnisse erzielen“, sagt Professor Karl Jür-gen Oldhafer, Leiter der Viszeralchirurgie am Barmbeker Klinikum und Experte auf dem Ge-biet der softwarenavigierten Leber-OP. Er hat schon über 300 Patienten mit Unterstützung des Computers operiert. Die Bildforscher des MEVIS haben damit einen langen Weg hinter sich gebracht. „Seit der Gründung unseres In-stituts im Jahr 1995 arbeiten wir an der Analy-se medizinischer Bilddaten. Dass sich jetzt die Operateure direkt im OP-Saal am Computer orientieren können, ist der letzte und wich-tigste Schritt in die Praxis gewesen, und damit entsteht der größte direkte Nutzen“, sagt Dr. Guido Prause, Sprecher des MEVIS.

HepaVision errechnet dabei aus klassischen Computertomografien ein dreidimensionales Modell der Leber eines Patienten. Auf den Kubikmillimeter genau werden dabei das Ge-samtvolumen und das zu entfernende Volumen berechnet. Ein unschätzbarer Gewinn für Arzt und Patient: Denn anhand computertomogra-fischer Aufnahmen alleine können die Medizi-ner vorab nicht erkennen, wie viel Gewebe sie letztlich entfernen müssen und dürfen. Hier aber liegt der Schlüssel zum Erfolg, nämlich einer möglichst hohen Überlebens rate. Hepa-Vision bietet Operateuren damit die entschei-dende Verbesserung. Das Programm erstellt einen patientenindividuellen Vorschlag, wel-che Teile der Leber optimal entnommen wer-den können. „Das dreidimensionale Modell, an dem wir uns im Operationssaal orientieren, ist natürlich viel exakter als die klassischen CT-

Grundlage sind klassische Computertomografien: Die

Software HepaVision errechnet daraus 3-D-Modelle der Leber.

Gr

afik

: fr

au

nh

ofer

Mev

iS

www . Digital-Zeitschrift.de

44 Aus. sichten Text. Detlev Karg

dieses Eingriffs noch allein von der subjektiven Einschät-zung des Operateurs ab. Künftig soll auch dies, im Sinne des Patienten, exakter funktionieren.

Auch die Magnetresonanztomografie optimieren die Bre-mer Forscher derzeit. So ist es heute zwar möglich, Gewe-be auf verschiedenste Weise damit abzubilden. Hier gibt es unzählige Verfahren, die unterschiedliche Aspekte des Gewebes abbilden können. „Die Nutzer, im Allgemeinen Ärzte, wollen sich aber nicht damit beschäftigen, welche Methode für eine bestimmte Fragestellung die beste ist, sondern erwarten idealerweise optimale Bilder. Hierzu ist es meist notwendig, die Nachverarbeitung ideal auf die Bildaufnahme abzustimmen, damit der Arzt die Bildinfor-mation in der Qualität erhält, die er braucht. Das wollen wir den Medizinern mit einer neuen Software künftig deut-lich erleichtern“, sagt Professor Matthias Günther, der auf diesem Gebiet forscht. „Wie ich die Magnetisierung im Ge-webe beeinflusse, in welcher Art ich das Bild aufnehme und wie ich es weiterverarbeite, beeinflusst sehr stark, welchen Nutzen der Arzt hinterher aus den Bilder ziehen will.“ Die Bildaufnahme eines MRT-Gerätes soll also besser mit der Nachverarbeitung verzahnt werden und in einer einfach zu bedienenden Benutzeroberfläche zusammen-geführt werden. Einige Jahre wird es aber noch dauern, bis solche Systeme auf dem Markt sind. Zu diesem Zweck kooperiert das MEVIS-Institut auf diesem Gebiet seit kurzer Zeit mit der Siemens AG.

Digitale PatientenakteAuch Cloud Computing, das derzeit in aller Munde ist, hilft der klassischen Medizin, beispielsweise bei der ratio-nellen Verwaltung der digitalen Patientenakte. Dies belegt ein Beispiel aus der Praxis am Kreisklinikum Siegen. Hier wird die digitale Patientenakte seit einiger Zeit erfolgreich eingesetzt und erleichtert erheblich die Arbeit des medi-zinischen Personals und in der Verwaltung. „Im Rahmen des Projektes haben wir sowohl digital vorliegende Alt-bestände wie auch physische Altakten übernommen und ergänzen diese täglich um aktuelle Akten der entlassenen

Patienten“, erklärt Sebastian Weber, Vertriebs-leiter der Siegener Datasec information fac-tory GmbH. Der Geschäftsprozessdienstleis-ter verfügt über jahrzehntelange Erfahrung auf dem Gebiet der digitalen Archivierung im Rechenzentrumsbetrieb. Die aktuellen Tech-nologien erlauben heute einen Betrieb der elektronischen Akte auf Basis einer revisi-onssicheren Archivierung in einer Geschwin-digkeit und einer Integrationstiefe, die viele der am Markt verfügbaren Inhouse-Lösungen übertrifft. Krankenhäuser stehen heute unter enor mem Kostendruck und suchen nicht nach einer Insellösung, die ihnen meist nur einen Teil der Arbeit abnimmt und bei der es oft für viele Teilbereiche eines Problems keine Lösung aus einer Hand gibt. „Zwar können wir heu-te durchaus ein Dokumentenmanagementsy-stem zur Verwaltung der Akten kaufen, doch müssten wir uns dann mit eigenen Ressour-cen um das Scannen und die Einhaltung der Revisionssicherheit bemühen. An dieser Stelle kommt es dann leicht zu Personalengpässen, die gerade in einem Krankenhaus, in dem die Informationen im Fall der Fälle immer voll-ständig und schnell vorliegen müssen, zum Prozesskiller werden“, sagt Rainer Denker, Leiter Controlling am Siegener Kreisklinikum. Wenn Patientenakten digital erfasst und dann immer aktuell verfügbar sein sollen, muss die Dienstleistung also umfassend sein. Das Konzept von Datasec ist so verblüffend wie einfach: Das Unternehmen beschäftigt Mit-arbeiter, die sich ausschließlich auf die Digi-talisierung der Patientenakten unter Daten-schutz- und Qualitätsaspekten spezialisiert haben. Statt Manpower zu reduzieren, setzt der Siegener Prozess-Dienstleister damit auf eine Komponente, die bei vielen IT-Lösungen in Unternehmen vergessen wird: Handarbeit.

Papierdokumente sind in vielen Kliniken noch der Standard. Doch selbst klassische EKGs und EEGs gehören in die elektro-nische Patientenakte.

45Aus. sichtenIT-Lösungen. Innovationen für Kliniken und Praxen von morgen

tiger Faktor im Rahmen einer Gesamtlösung. „Eine reine IT-Lösung, etwa ein Scanner mit einem Dokumentenma-nagementsystem, deckt eben nicht alle Prozesse ab. Eine weitere Software ist etwa für die Anbindung an interne Systeme nötig. Und dann ist da eben noch die händische Digitalisierung. Alles das nehmen wir dem Kreisklinikum mit unserem Konzept DOKU@WEB ab“, sagt Sebastian Weber. Das schafft Luft bei den Finanzen und optimiert Qualität und Durchlaufzeiten. Vor allem das Handling von Dokumenten kostet Zeit, die sich in den Lohnkosten, gar in ganzen Stellen niederschlagen kann. Das Digitalisieren einer Akte bei Datasec ist je nach Anforderung an den Ser-vice-Level bereits für ein bis drei Euro zu haben.

Am Bildschirm zur FerndiagnoseAuch die Telemedizin beginnt sich zu etablieren, da auf bestimmten Gebieten der Prävention und Heilung die Er-folge dank Videokonferenzen messbar sind. So unterhält das Dresdner Universitäts-SchlaganfallCentrum (DUSC) ein Team von Neurologen, die an sieben Wochentagen rund um die Uhr Ärzte in der Region Ostsachsen schnell und umfassend beraten. CT- und andere Bilder sind über Vi-deokonferenzen für beide Seiten sichtbar. 2009 wurden Ärzte in Krankenhäusern dieser Region bei 550 Schlag-anfallpatienten von Dresden aus beraten, 2010 waren es bereits 861. Bei 215 von ihnen wurde zu einer sofortigen Verlegung in das Universitätsklinikum geraten, da Eingriffe erforderlich waren, die die regionalen Kliniken nicht leisten konnten. „Es hat sich herausgestellt, dass bei 20 Prozent der als Schlaganfall angemeldeten Patienten keine Minder-durchblutung des Gehirns die Ursache war, sondern Blu-tungen, Tumore oder andere Krankheiten“, sagte Profes-sor Dr. med. Rüdiger von Kummer, Direktor der Abteilung Neuroradiologie sowie des Dresdner Universitäts-Schlag-anfallCentrums am Universitätsklinikum der sächsischen Landeshauptstadt jüngst in Berlin. Bereits das erste Te-lemedizinprojekt dieser Art, TEMPIS in Bayern, habe klar gezeigt, dass auf diese Weise die Versorgungsqualität ver-bessert werden kann und somit weniger Menschen infolge eines Schlaganfalls behindert bleiben oder versterben.

Dazu zählte nicht nur die erstmalige Erfassung von Altakten, sondern auch die fortlaufende Bearbeitung von Aktenergänzungen, welche papierbasiert oder auch digital aus dem voll-integrierten Krankenhaus-Informationssystem vorliegen. Datasec betreibt im Auftrag des Kreisklinikums einen eigenen Datenschutz-raum, in dem ausschließlich die Dokumente dieses einen Kunden von einem festen Team digitalisiert werden. Alle Patientendaten wer-den zentral im Rechenzentrum vorgehalten und laufend mit dem führenden Klinik-Infor-mationssystem abgeglichen. Die gescannten Belege werden mit Metadaten angereichert und im Format PDF/A in der elektronischen Akte gespeichert. PDF/A entspricht der der-zeitigen Norm der International Organization for Standardization (ISO) zur Verwendung von PDF-Dateien für die Langzeitarchivierung elektronischer Dokumente. Die Standards des Dokumentenformats PDF/A regeln unter ande-rem die einheitliche Darstellung und Ausgabe von Farben und Zeichen am Bildschirm und beim Druck.

Für die Mitarbeiter des Krankenhauses sind die bei Datasec gespeicherten Patientenakten über das interne SAP-System und das Klinik-informationssystem verfügbar. Die Daten wer-den über die HL7-Schnittstelle, die der dafür etablierte Standard in der Medizinkommunika-tion ist, ausgetauscht. Auch meterlange EKG-Diagramme werden für die elektronischen Patientenakten durch Datasec mit speziellen Dokumentenscannern erfasst und abgelegt. Auf diese Weise passiert eines nicht: Dass Un-ternehmen wie das Kreisklinikum Siegen auf einer kostenintensiven Restarbeit sitzen blei-ben. Denn auch in Zeiten des Cloud Compu-ting ist menschliche Arbeit weiterhin ein wich-

foto

S:

XX

XX

X

www . Digital-Zeitschrift.de

46 Quer. Köpfe Text. Marcus Schuler

Rich Skrenta – von einem, der auszog das Web zu vermessenEr will sie eigentlich nicht mehr hören:� die alten Geschichten vom �Elk Cloner�, jenem kleinem Computerprogramm, das Rich Skrenta 1982, noch zu Apple-II-Zeiten, in die Welt setzte. Er war damals 15 und programmierte nicht mehr und nicht weniger als den ersten Bootsektorvirus der Welt. Skrenta redet heute lieber von seinen Geschäften als Internet-Unternehmer und seiner Suchmaschine Blekko.

Etwas ungelenk erhebt sich Rich Skrenta von seinem Stuhl, um den Gast zu begrüßen. Er weiß, dass solche Termine wichtig sind, obgleich die Öffentlichkeit nicht unbedingt seine Sache ist. Er gibt sich lieber bescheiden. Das ist ver-mutlich die richtige Einstellung, um gleich von vornherein Erwar tungen zu zerstreuen, man sei der neue Google- Konkurrent.

Auf Skrentas Schreibtisch stehen mehrere Monitore so dicht nebeneinander, dass er mit seiner Maus vermut-lich eine halbe Schreibtischlänge benötigt, um mit dem Mauszeiger von links nach rechts zu fahren. Auf anderen Schreibtischen sind die Flachbildschirme vertikal gedreht. Dort passen an einen Arbeitsplatz vier oder gar sechs Mo-nitore. In Amerika ist wirklich alles größer. An den Wän-den hängen riesige weiße Magnettafeln. Mit wasserlös-lichen Stiften haben die Blekko-Leute Programmiercode und Diagramme darauf gepinselt, um komplexe Abläufe zu

veranschaulichen. Der Chef der Suchmaschine sitzt inmit-ten seines Entwicklerteams. So kann er sich jedem seiner Mitarbeiter zuwenden, wenn Fragen auftauchen oder ein Problem geklärt werden muss. Draußen ist es heiß. In Red-wood City, etwa 40 Kilometer südlich von San Francisco, hat es an diesem Tag mehr als 30 Grad. Drinnen ist das Licht gedämpft, von der Decke drückt die Klimaanlage küh-le Luft in den Raum. Die Kernmannschaft von Blekko, die meisten davon Programmierer, sitzt in einem vielleicht 80 Quadratmeter großen Raum. Nur aus einem Zimmer, das sich an das Großraumbüro anschließt, dringt der monotone Lärm surrender Server. Skrenta entschuldigt sich, als er zu dem Raum kurz die Tür öffnet, um stolz das Herzstück sei-nes Unternehmens zu präsentieren: „Ich hoffe, man kann

foto

: M

ar

cu

S S

ch

ule

r

47Quer. KöpfeNerds. Vom Computervirus zur Suchmaschine

www . Digital-Zeitschrift.de

besteht. „Wir haben 800 Server.“ In puncto Rechenleistung sei das natürlich ein Nachteil. Google könne auf die Ener-gie von Kernkraft- und Wasserkraftwerken zurückgreifen. Der nur wenige Kilometer entfernte Suchmaschinen-Gigant brauche quasi nur einen Schalter umzulegen und schon könne er auf eine Million zusätzlicher Server zurückgrei-fen. Vielleicht etwas übertrieben, aber der Vergleich dürfte der Realität nahekommen. Überhaupt sind Vergleiche zwi-schen dem Suchmaschinen-Neuling Blekko und der Mutter aller Suchmaschinen Google omnipräsent. Nicht nur wegen der gefühlten Distanz von wenigen Metern (in Wahrheit sind es 20 Autominuten oder knapp 24 Kilometer). Zu-gleich fragt man sich: Weshalb war Skrenta so „dumm“, auf einem Markt anzutreten, der von einem großen Unterneh-men schlichtweg dominiert wird? In Europa soll der Markt-anteil der Suchmaschine von Google sogar noch höher lie-gen als in den USA: Von nahezu 90 Prozent ist die Rede. Genaue Zahlen gibt es nicht. Ungläubig schüttelt man also den Kopf und fragt sich, weshalb nimmt es der 45-jäh-rige Skrenta mit der schier übermächtigen Konkurrenz auf? Weshalb führt er einen Kampf gegen Windmühlen auf, den er im Grunde gar nicht gewinnen kann. Weshalb die ganze Mühe, wo sich selbst ein milliardenschweres Unternehmen wie Microsoft mit seiner Suchmaschine Bing seit Jahren schwertut?

Coole TechnologieDie Antworten von Skrenta fallen nüchtern aus und sie be-stehen aus zwei Motiven. Die eine Antwort lautet so: „Su-che ist aus mehreren Gründen ein wirklich faszinierender Markt. Zuerst musst du das gesamte Internet durchsuchen und eine Kopie davon auf einen großen Cluster kopieren,

mich bei dem Lärm der Server noch verstehen. Die haben wir nur zu Testzwecken hier in unseren Büroräumen auf-gebaut. Hier stehen 20. Sie sind via Glasfaserverbindung an unser eigentliches Rechenzentrum unten in Sunny Vale angebunden. “

Cola und ComputerDie Haare adrett geschnitten, eine schwarze Kunststoff-Brille, ein schwarzes T-Shirt, das über die viel zu weit ge-schnittene kakifarbene Chino-Hose hängt. Skrenta ist die Verkörperung eines Nerds und er bedient damit ein gän-giges Klischee: Nämlich das Bild eines Menschen, für den es nichts Spannenderes gibt, als vor seinem Computer zu sitzen, links die Cola-Flasche, rechts eine Tüte mit Süßig-keiten. Ein Typ, der in seiner Schulzeit im Pausenhof ver-mutlich alleine in der Ecke stand, weil er für seine Mitschü-ler viel zu „uncool“ war. Solch ein Klischee.

Mehr als 20 Millionen Dollar Kapital hat Skrenta in den vergangenen Jahren eingesammelt. „Angel Rounds“ nennt man sie im Silicon Valley. Und er hat namhafte Geldgeber gefunden. Ron Conway zum Beispiel, der mit seiner Kapi-talspritze Ende der 90er-Jahre Google mitermöglicht hat. Oder Marc Andreesen, den Co-Erfinder des ersten Web-Browsers Netscape.

Kürzlich habe er gelesen, erzählt Skrenta, dass das kleins-te Rechenzentrum von Google aus mehr als 1200 Servern

48 Quer. Köpfe Text. Marcus Schuler

bevor du überhaupt den ersten Besucher bekommst.” Wenn man ein soziales Netz-werk aufbauen wolle, dann reichten ein paar gut skalierte Server aus. Aber für eine Suchmaschine benötige man Hunderte, wenn nicht gar Tausende Server, um über-haupt anfangen zu können.

Herausforderung und Pioniergeist – das ist sicherlich ein Grund für das Engagement und den Antrieb von Skrenta. Ein anderer – und das ist das zweite Motiv – ist das Geld: „Die Technologie dahinter ist einfach sehr interessant und der Markt ist span-nend. Mit einem sozialen Netzwerk kann man Tausender-Kontakt-Preise zwischen 10 und 15 Cent erzielen, mit einer Suchmaschine dagegen 50 bis 100 Dollar. Das ist ein außergewöhnliches Geschäft und die coolste Technologie.“

Heißt das nicht, dass man mit einer semi-erfolgreichen Suchmaschine, die wie bei Google Werbung am Seitenrand einblendet, gutes Geld verdienen kann?Skrenta nickt und lächelt.

Der Programmierer ist zugleich auch Geschäftsmann. Er weiß, dass er seinen Er-folg nur in einem Nischen-Produkt finden kann. Er gibt sich vermutlich nicht der Illusion hin, dass er gegen Google den Hauch einer Chance hat. Deshalb sieht das Frontend, die Startseite seiner Suchmaschine, dem großen Vorbild zwar ähnlich. Doch unter der Haube steckt eine Suchmaschine, die sich in vielen Punkten von der Google‘schen Idee der Suche unterscheidet. Skrentas Ansatz, dem Branchenprimus Google Paroli zu bieten, passt in die Zeit. Denn er hat seine Suchmaschine um eine „soziale“ Komponente erweitert. Dazu haben er und sein Team, den Begriff „Slash-tag” erfunden. Die Nutzer von Blekko sollen das schaffen, was Skrenta mit seinen Suchrobotern alleine aufgrund der schieren Größe des Internets und der begrenzten Zahl an Servern, die ihm zur Verfügung stehen, nicht schafft: Die Nutzer von Blekko sollen bei der „Vermessung“ des Webs mithelfen. Sie sollen kategorisieren, Zusam-menhänge zwischen verschiedenen Seiten herstellen und vor allem filtern. Das hört sich zunächst kompliziert an; die Leute von Blekko haben es jedoch geschafft, auf spielerische Art und Weise das Verfeinern von Suchergebnissen zu ermöglichen. Das ist auch nötig, denn Skrenta lässt seine Suchroboter nicht auf jede Internetseite los. In der Anfangsphase sollen vornehmlich englischsprachige Seiten in den Index auf-genommen werden. Auch die Zahl der Webseiten selbst soll um ein Vielfaches ge-ringer sein, als dies bei den Indizes von Google, Bing oder Yahoo der Fall ist. „Nur“ aus drei Milliarden Seiten soll der Index von Blekko bestehen. Dadurch spart Skrenta kostbare Rechenkapazität, erntet aber reichlich Kritik der Netzgemeinde dafür.

Zugleich muss er sich mit seiner „Engine“ von Google unterscheiden und deutlich absetzen. So sollen bei Blekko die Suchergebnisse transparent gemacht werden. Der Blick hinter die Geheimnisse des „Rankings“ ist damit gemeint. Er ist nur einen Slashtag entfernt und es bedarf nur der Eingabe eines „/rank“ – die Nutzer sollen

mithilfe der Slashtags erfahren, weshalb ihre Seite für das Internet relevanter ist als andere Seiten. Auch das ist ein Ansatz, den Skrenta verfolgt. „Das Internet ist riesig. Vor zehn Jahren hatte das Web rund eine Milliarde Seiten, heu-te sind es wenigstens 100 Milliarden Seiten. Wenn man eine Suche startet, mit drei, vier, fünf Suchbegriffen, erhält man drei, vier oder fünf Webseiten als Antwort.“ Was ihn aber störe, fährt er fort, sei, dass die angezeigten Such-ergebnisse für jeden Benutzer nahezu gleich seien.

Gescheiterte SucheSkrenta zehrt von seinem guten Ruf, den er im Silicon Val-ley genießt. Er gehört nicht zu den „Schwätzern“, die von neuen tollen Ideen der Monetarisierung erzählen und an-geblich schon fünf namhafte Investoren im Boot haben. Er ist einer der Seriösen. Er weiß, wie es ist ein Start-up aufzubauen und es wieder gewinnbringend zu verkaufen. Nur so ist es zu erklären, dass er für sein Blekko-Projekt Investoren gefunden hat.

Der heute 45-Jährige hat mit 15 Jahren den ersten Compu-tervirus der Welt, den „Elk Cloner“ geschrieben. Er hat für Unternehmen wie Sun Microsystems, Commodore sowie AOL programmiert. Und er hat das Open Directory Project aufgebaut, ein Verzeichnis, das Google als Grundlage für seinen Suchindex mehrere Jahre mitbenutzte. Seine Chan-cen, Google ernsthaft Konkurrenz bereiten zu können, dürften angesichts der unterschiedlichen Größe der beiden Unternehmen sehr gering sein. Dennoch hat er es gewagt. Viele andere Unternehmen vor ihm wie Cuil, ebenfalls eine Suchmaschine, sind gescheitert. Auch Cuil wurde vor ihrem Start mit viel Lob überschüttet und hielt dann doch nicht, was sie versprach. Auch um die semantische Suchmaschi-ne des Mathematikers Stephen Wolfram ist es wieder ruhig geworden. Ebenso gescheitert ist der Wikipedia-Mitbe-gründer Jimmy Wales mit seiner Wikia Search Maschine.

„Wir dachten uns: Mensch, es kann doch nicht wahr sein, dass es bei der Suche im gesamten onlinegespeicherten Wissen der Menschheit keine Unterschiede gibt. Dass es für alle die gleichen Antworten gibt. Es muss doch ein inte-ressantes, anderes Produkt möglich sein.“

www . Digital-Zeitschrift.de

49IT. WerkerAusbildung. Software muss gemanagt werdenText. Manfred Kloiber & Peter Welchering

Die deutsche Industrie hat zum Thema Software interna-tional deutlich dazugewonnen. Neben SAP, der Software AG und T-Systems als ganz spezifische Player gibt es auch in den Anwendungsbereichen viel Softwareaktivi-täten. Können wir uns jetzt zurücklehnen und mit dem Erreichten zufrieden sein?

Jähnichen: Firmen entscheiden Standortfragen nicht nur nach ökonomischen Gesichtspunkten, sondern vermehrt steht die Frage nach der Verfügbarkeit von Nachwuchs ganz oben auf der Prioritätenliste. Von daher ist es wichtig, dass eine Region, die Wert auf eine nachhal-tige Industrialisierung legt, dem Mangel an Fachkräften und insbesondere solchen, die eine solide Ausbildung im Software Engineering mit Kompetenz im Management verbinden, mit einem exzellenten Ausbildungskonzept begegnet. Dies ist eine Aufgabe für die Universitäten, die aber in hohem Maße auf die Bedürfnisse der Indus-trie zugeschnitten sein muss.

Welche Defizite in unserer Ausbildung halten Sie für be-sonders kritisch?

Broy: Neben der Befähigung zur Entwicklung von Soft-ware benötigen die Unternehmen hohe Kompetenz im strategischen Management von Software und Software-Projekten. Wir haben für diese Kompetenzen übrigens den Begriff der „Software Governance“ geprägt. Wir sehen sehr deutlich, dass Software-Know-how in den Vorstandsbereichen oft zu schwach ausgeprägt ist und daher in die Entscheidungsprozesse ungenügend einge-bunden ist.

Wie kann man hier Abhilfe schaffen?Jähnichen: Insbesondere da dieses Gespür schwer er-lernbar ist, muss eine solide Ausbildung auf die dazu benötigten Kompetenzen ausgerichtet sein. Die Kom-petenz, Unternehmungen erfolgreich zu führen, strate-gisch wichtige, technologische Entscheidungen mit dem ökonomisch notwendigen Sachverstand zu untersetzen, muss als systematisches Ausbildungsangebot aufberei-tet und im Rahmen industrienaher Projekte mit den exi-stierenden Curricula verwoben werden.

Welche Skills sollten Informatiker dann zusätzlich zu ih-rer fachlichen Qualifikation mitbringen?

Jähnichen: Beispiele sind rechtliche Fragen zur Software (Softwarepatente, Qualitätsanforderungen und -män-gel), die Kostenstrukturen, die langfristige Evolution (Stichwort Legacy) ebenso wie Veränderungen unserer gesellschaftlichen Strukturen aufgrund der Herausforde-rungen und Entwicklungen des Internets. Es ist sicher nicht nur zufällig, dass Forschungsergebnisse der Infor-matik in vielen Fällen erfolgreich in den schnelllebigen USA und zunehmend auch in China in Innovationen um-gesetzt werden, während sich die europäischen Länder eher schwer damit tun.

In welcher Form kann diese Zusatzqualifikation vermit-telt werden?

Broy: Das technische Rüstzeug wird in den Ausbildungs-gängen der deutschen Hochschulen tadellos vermittelt, Fragen des Rechts, der Ökonomie, der Innovationsför-derung sind häufig nur als Nebenfach wählbar, ebenso wie sogenannte Soft Skills oder kompetente Unterneh-mensführung. Um diese Situation zu verbessern, sollten zwei Angebote zur Vermittlung dieser Kompetenzen aufgebaut werden: Ein Förderprogramm „Software Go-vernance“ für Doktoranden, mit dem parallel zur Dis-sertation die gewünschten zusätzlichen Qualifikationen erworben werden können. Und ein Masterstudiengang „Software Governance“, in dem die benötigten Qualifi-kationen vermittelt werden, um Führungsaufgaben zum Thema Software und Informationssysteme kompetent wahrnehmen zu können. Dieser könnte sich – ähnlich wie der MBA zum nachträglichen Erwerb von Know-how in Management und Betriebswirtschaft – gerade auch an Praktiker wenden, die sich in „Software Governance“ qualifizieren wollen.

Und, wer soll das alles bezahlen?Broy: Wir würden das Programm gern im Rahmen des gerade gegründeteten EIT (European Institute of Inno-vation & Technology) platzieren und können uns vor-stellen, dass auch in unserem Wissenschaftsministerium Interesse daran besteht.

„Nur Software entwickeln, reicht nicht“Große Softwarekonzerne sucht man in Deutschland vergeblich. Auch die Hardwareindustrie ist in den letzten Jahren abgewandert. Damit in Deutschland ansässige Unternehmen, die anwendungsspezifische Software entwickeln, diesen Trend nicht fortsetzen, braucht Deutschland eine Standortoffensive. Vor allem beim strategischen Management von Softwareprojekten besteht dringender Nachholbedarf. Manfred Broy und Stefan Jähnichen haben mit ihrer Initiative Softwarecampus einen Ausgangspunkt dafür gesetzt. Doch den müssen Politik, Industrie und Wissenschaft weitergestalten, so lautet auch die Forderung der Gesellschaft für Informatik. Wie diese Initiative aussehen soll, erörtern die Professoren Broy und Jähnichen im Gespräch mit den „Digital“-Redakteuren Manfred Kloiber und Peter Welchering.

Prof. Dr. Manfred Broy ist Leiter des Lehrstuhls für Software & Systems Engineering an der TU München.

Prof. Dr. Stefan Jähnichen ist Leiter des Fraunhofer Institutes für Rech-nerarchitektur und Softwaretechnik in Berlin und Präsident der Gesellschaft für Informatik.

foto

: tu

Mfo

to:

fr

au

nh

ofer

fir

St

50 Plan. spiel Text. Peter Welchering

Zwischenstopp für Hochschulstart.deZum kommenden Wintersemester wird es an den bundesdeutschen Hochschulen eng: Doppelte Abiturientenjahrgänge und das Aussetzen der Wehrpflicht sorgen für einen regelrechten Run auf die Unis. Bei Studiengängen mit örtlicher Zulassungsbeschränkung, wie etwa Betriebswirtschafts-lehre, Rechtswisssenschaften oder Psychologie, ist die Situation besonders angespannt.

Abhilfe schaffen sollte eine bundesweite Online-Studienplatzbörse, im Verwaltungs-deutsch „Dialogorientiertes Serviceverfahren für die Hochschulzulassung“ genannt. Al-lerdings wurde der Systemstart kürzlich aus technischen Gründen verschoben. Jetzt ban-gen die Beteiligten, ob der Start im nächsten Jahr glücken wird.

Als die Bundesländer vor sechs Jahren die allmächtige Zentralstelle für die Vergabe von Studienplätzen (ZVS) kaltstellten, lösten sie ein Zulassungschaos aus. Seitdem bewerben sich jeweils zum Wintersemester in ruhigeren Zeiten 200.00 Studierwillige, in turbulente-ren Zeiten 350.000 an rund 400 Hochschu-len um einen Studienplatz. Nicht wenige der künftigen Studiosi bewerben sich bei einem Dutzend Hochschulen gleichzeitig. Das ver-bessert die Erfolgschancen ganz beträchtlich – für den Einzelnen.

Für die Allgemeinheit ist das ein Problem. Ein Bewerber mit guten Erfolgschancen erhält in der Regel gleich von mehreren Universitäten eine Zusage. Er entscheidet sich für eines

der Angebote. An den anderen Hochschu-len, die ihm auch ein Zulassungsangebot ge-macht haben, bleibt ein Platz frei. In aufwen-digen Nachrückverfahren werden die nicht besetzten Studienplätze an andere Bewerber vergeben.

Dies kann Monate dauern – die letzten Nach-rücker für das Wintersemester nehmen erst im Januar ihr Studium auf. Im Winterseme-ster 2010/2011 konnten zwischen 10.000 und 20.000 Studienplätze aufgrund solcher Mehrfachzulassungen nicht oder nur sehr spät im Semester besetzt werden. Die Fol-ge für die Unis: frei bleibende Studienplätze, für die zu spät angenommenen Bewerber: häufig Verlust eines Studienjahres, weil sie in den regulären Betrieb nicht mehr einsteigen können.

Zum Wintersemester 2011/2012 sollte das Dialogorientierte Serviceverfahren die Stu-dienplatzvergabe durch den automatisierten Abgleich von Mehrfachzulassungen beschleu-nigen. Die ersten Pläne für das inzwischen „Hochschulstart.de“ genannte webbasierte

foto

S:

itD

Z b

er

lin

51Plan.SpielIT-Projekte. Immer wieder Ärger mit den Schnittstellen

www . Digital-Zeitschrift.de

System für die Online-Zulassung stammen aus dem Jahr 2008 und sind als Kompromiss zwi-schen einem strikt zentralen System und einer rein dezentralen Lösung entstanden.

Der Bund stellte 15 Millionen Euro für die Ent-wicklung des Systems bereit. Als Vorbereitung für die Ausschreibung und Grundlage für die Implementierung wurde das Fraunhofer-Insti-tut für Rechnerarchitektur und Softwaretech-nik in Berlin mit der Erstellung eines Lasten-heftes beauftragt.

Die Projektleitung übernahm die neu geschaf-fene Stiftung für Hochschulzulassung und der mit jeweils 16 Vertretern der Hochschulen und 16 Wissenschaftsministerien der Länder be-setzte Stiftungsrat unter dem Vorsitz von Pro-fessor Micha Teuscher.

„Das Lastenheft ist in ständiger Diskussi-on mit den Vertretern der Hochschulen und der Länder entstanden und enthält alle für das Verfahren notwendigen Anwendungsfäl-le. Insbesondere die Mischung aus zentralen

und dezentralen Komponenten, die sowohl die Autonomie der Hochschulen als auch die Bedürfnisse einer effizienten Abwicklung der Berwerbungsverfahren ermöglicht, hat zu ho-her Akzeptanz des Verfahrens geführt“, erläu-tert Professor Stefan Jähnichen, der das „First“ abgekürzte Fraunhofer-Institut für Rechnerar-chitektur und Softwaretechnik leitet.

Bestechende Eleganz„Dieser breite Konsens über das Konzept war auch Voraussetzung für den Versuch, das Ver-fahren trotz des sehr engen Zeitplans bereits im Wintersemester 2011/2012 einzuführen“, meint der Informatiker. Für die Hochschulen und für die Bewerber sollte größtmögliche Transparenz geschaffen werden. Studieninte-ressierte sollten zu jedem Zeitpunkt den Stand ihrer Bewerbung in allen Ranglisten genau nachverfolgen können.

Die Idee des Systems ist von bestechender Eleganz: Jeder Bewerber, der über ein eigenes Nutzerkonto auf Hochschulstart.de registriert

ist, kann bis zu zwölf Studienwünsche einge-ben, die seine Vorgaben bezüglich des Studi-enortes und -fachs am besten beschreiben. Die Hochschulen wählen dann nach ihren ei-genen Kriterien die Bewerber aus und stellen ihre diesbezüglichen Ranglisten in das Portal ein. Bei einem Studienplatzangebot wird der Bewerber über das Portal benachrichtigt und kann sich online für oder gegen dieses Ange-bot entscheiden.

Schlägt er virtuell ein und entscheidet sich für ein Studienfach an einer Hochschule, wird sein Name aus allen anderen Listen gestrichen. Er blockiert also keine weiteren Studienplätze mehr. Das System nimmt einen Abgleich von frei gewordenen Plätzen und Ranglisten zeit-nah vor und aktualisiert alle Ranglisten. Be-werber, die noch keine Zusage erhalten haben, können jederzeit ihren aktuellen Listenplatz einsehen, auf diese Weise ihre Nachrückchan-cen einschätzen und daraufhin entscheiden, ob sie ein Angebot schon annehmen oder mit guten Chancen darauf warten, dass sie doch noch für ihr Lieblingsfach an der Lieblingsuni-versität eine Zusage bekommen.

Die Ausschreibung des komplexen Systems erfolgte europaweit. Nach intensiver Diskus-sion der Angebote ging der Zuschlag für den Entwicklungsauftrag an die Telekom-Tochter T-Systems, die gemeinsam mit der in Hanno-ver ansässigen HIS GmbH angeboten hatten. „Dass es sich hierbei um einen zeitkritischen Entwicklungsauftrag handelte, war allen Betei-ligten klar“, meint Stefan Jähnichen.

Und genau dieser Zeitplan ist nun nicht einge-halten worden. Die geplante Einführung ist zu-nächst um ein Jahr verschoben worden. Doch

52 Plan. spiel Text. Peter Welchering

RenteBerufsunfähigkeitBetriebs-, Produkt- und Vermögens-schäden

www.gi-24.de

GUT ABGESICHERT?

Anz_GI24__NEU_Layout 1 15.03.11 16:42 Seite 1

ob Hochschulstart.de zum Wintersemester 2012/2013 wirklich an den Start gehen kann, steht derzeit in den Sternen. „Jeder, der von Studienplatzvergabe keine Ahnung hat, unter-schätzt solch ein Entwicklungsprojekt“, meint denn auch Bernhard Henning, Leiter der Ab-teilung Studium und Lehre an der Universität Erlangen-Nürnberg.

Reißleine gezogenDa stellt sich natürlich die Frage: Wer hat nun den verzögerten Start des Systems zu verant-worten? „Wir haben unseren Anteil erbracht“, reicht Bundesbildungsministerin Annette Schavan den Schwarzen Peter an die Länder weiter. Denn das von T-Systems implemen-tierte System wurde, wenn auch mit leichter Verzögerung, inzwischen abgenommen und stand termingerecht zur Verfügung.

Probleme machte die Anpassung der lokalen Zulassungssysteme an die Schnittstellen des Systems, was letztlich dazu führte, dass die Verantwortlichen das Risiko der Einführung als zu hoch einschätzten und eine Verschiebung um ein Jahr beschlossen. „Die Verschiebung war für alle Beteiligten immer eine ernst zu nehmende Option und ich halte es für rich-tig und verantwortungsbewusst, die Reißleine zu ziehen, wenn das Risiko eines Scheiterns sonst auf den Hochschulen und den Bewer-bern gelastet hätte“, stellt Micha Teuscher als Vorsitzender des Stiftungsrats fest.

Und Stefan Jähnichen legt nach: „Man kann den Erfolg eines so zeitkritischen Projekts nicht erzwingen.“ Jetzt geht es nach seinem Dafürhalten darum, die Weichen für die Wei-terführung des Projekts so schnell wie möglich zu stellen, denn die Hochschulen und Studi-enplatz-Bewerber brauchen ein modernes und innovatives Bewerbungsverfahren. „Strei-tigkeiten zwischen Bund, Ländern und Hoch-schulen haben da nichts zu suchen“, ist sich Jähnichen sicher.

Grund für die Verschiebung war der instabile Datenabgleich zwischen dem Zentralsystem und den Campussystemen von insgesamt 170 Hochschulen. Diese Hochschulen betreiben in der Regel Campussysteme des Marktführers HIS GmbH. Die HIS GmbH arbeitet seit einiger Zeit an einem neuen Verwaltungssystem für die Hochschulen.Allerdings hatten die Hannoveraner für die Verbindung zum Dialogorientierten Service-verfahren, abgekürzt „DoSV“, ein Konzept für die Kopplung mit ihrer alten Software favori-siert und dabei wohl den Aufwand der Umstel-lung erheblich unterschätzt. Campussysteme anderer Anbieter, wie etwa der Hamburger Datenlotsen, arbeiten hingegen in ersten Test-läufen unproblematisch mit dem zentralen Portal zusammen.

Blick ins HausaufgabenheftAus der Stiftung für Hochschulzulassung, deren Stiftungsrat die Projektsteuerung von Hochschulstart.de immerhin zur Chefsache erklärt hatte, ist sogar zu hören, dass die Pro-jektaufsicht vielleicht nicht stringent genug wahrgenommen wurde. „Als Ländervertreter im Stiftungsrat müssen wir uns den Vorwurf machen, nicht genug nachgefragt zu haben“, räumte der stellvertretende Vorsitzende des Stiftungsrats Josef Lange, zugleich Staatsse-kretär im niedersächsischen Wissenschaftsmi-nisterium, ein.

Und Stiftungsratsvorsitzender Micha Teuscher sekundiert: „Die Stiftung wird ihre Hausaufga-ben machen.“ Allerdings will Teuscher auch die HIS GmbH nicht aus ihrer Verantwortung ent-lassen: „Voraussetzung für den erfolgreichen Hochschulstart.de wird sein, dass auch die

Das Anmeldeformular zu hochschulstart.de macht einen aufgeräumten Eindruck – doch die Algorithmen dahinter müssen noch verbessert werden.

www . Digital-Zeitschrift.de

53Plan.SpielIT-Projekte. Immer wieder Ärger mit den Schnittstellen

HIS GmbH ihre Hausaufgaben macht“. Bleibt eigentlich nur noch zu klären, welche kon-kreten Aufgaben ins HIS-Hausaufgabenheft hineingeschrieben werden müssen und ob HIS die beteiligten Hochschulen dann einen Blick ins Hausaufgabenheft mit den Lösungen werfen lässt. Teuscher selbst hat vor allen Din-gen Probleme bei den Schnittstellen zwischen den Campussystemen und dem Zentralsystem beim Datenabgleich festgestellt.

Ambitionierte ZieleDie anstehenden Herausforderungen wird die HIS GmbH nicht im Alleingang lösen können. Auch ihre Kunden, die Hochschulen selbst, müssen bei der Implementierung der neuen Software unterstützen und ihre Sekretariats-mitarbeiter auf HIS-Schulungen entsenden.

Das dauert und wird auch Geld kosten. Des-halb wollen nicht wenige Universitäten, allen voran die Goethe-Universität in Frankfurt am Main, auch die Finanzierungsfrage noch ein-mal mit Bundesbildungsministerin Schavan diskutieren. Die allerdings will über die bereits investierten 15 Millionen für die Entwicklung des Zentralsystems hinaus kein Geld mehr in die Hand nehmen und verweist auf die Kultur-hoheit der Länder.

Klaus Landfried, langjähriger Präsident der Hochschulrektorenkonferenz, geht davon aus, dass bis zur Lösung der technischen Probleme bei Hochschulstart.de noch drei bis vier Jahre ins Land gehen können.

Eine so lange Dauer will Stiftungsberater Jäh-nichen nicht einräumen. Immerhin aber meint er zum jetzt geplanten Start des Portals im Wintersemester 2012/2013: „Das ist immer noch ein ambitioniertes Ziel und es gilt wie schon bei Beginn des Projekts, dass alle Be-teiligten sich verantwortungsbewusst und konstruktiv einbringen müssen –übrigens auch bald und schnell.“

Sicher. Bequem.

zuverlässig.Mit dem Digital-Abo keine Ausgabe mehr verpassen!

6 Ausgaben frei Haus für nur 36.– Euro pro Jahr!

Jetzt gleich online bestellen unter:

www.digital-zeitschrift.de/abo

54 Spiel.Zeug Text. Jan Rähm

Auch wenn der digitale Arbeiter im Alltag eher selten mit der analogen Welt der Flora in Berührung kommt, so gibt es doch so manches Gad-get, das ihm die Begegnung mit der Pflanzenwelt schmackhaft macht.

Zum Beispiel der mittägliche Spaziergang im Park vorm Büro. Den macht die iPhone-App „LeafSnap“ zur persönlichen kleinen Expedition in die Natur. Wissenschaftler von der Columbia University und der Uni-versität von Maryland haben die kostenlose App entwickelt. Es ist de facto ein Nebenprodukt ihrer regulären Forschungsarbeit. Normalerwei-se arbeiten die Wissenschaftler an Algorithmen zur Gesichtserkennung. Die dabei gemachten Erfahrungen flossen auch in die Anwendung für das Smartphone ein.

Who is who?Nun also lassen die Forscher ihr Programm nicht Gesichter erkennen, sondern Pflanzen, speziell Bäume, ganz speziell die Blätter der Bäume. Dazu nimmt der Anwender der App am besten ein weißes Blatt Papier mit auf seinen Trip ins Grüne. Das faltet er vor sich auf, legt das Laub-blatt darauf und knipst das Arrangement. Sogleich macht sich die App daran, anhand der Konturen und der Verästelungen den zum Blatt zuge-hörigen Baum zu erkennen. Die aufgenommenen Strukturen vergleicht sie dabei mit einer Datenbank, die das Smithsonian Institute und ein Fotoorganisation namens „Finding Species“ beigesteuert haben. Ist sich die Software bei der Erkennung nicht ganz sicher, präsentiert sie mehrere mögliche Treffer. Darin findet der Anwender dann zusätzliche Informationen zu den Bäumen und kann anhand von Blütezeit, Verbrei-tung und weiteren Merkmalen den richtigen Baum identifizieren. Hat er dies getan, beschriftet er seine Aufnahme des Blattes und entscheidet, ob er seine Aufnahme samt Zusatzdaten an eine Datenbank senden möchte. Denn natürlich ist die App nicht nur ein Geschenk an die User. Vielmehr wollen die Wissenschaftler mithilfe der hochgeladenen Daten der Verbreitung verschiedener Gewächse auf die Spur kommen. Doch Pech für den in Europa heimischen Hobbyforscher: Aktuell umfasst das Programm nur Gewächse aus New York City und Washington D. C. Wei-tere Landstriche der USA sollen bald folgen, doch ob auch das gute alte Europa mitaufgenommen wird, ist noch unklar.

Durstig?Grün in ganz anderer Hinsicht ist das kleine Ding aus dem Webshop Firebox.com. Denn dieses Ding ist ein Gieß-Anzeiger für Topfpflanzen der anderen Art. Grundsätzlich arbeitet er wie andere Gieß-Anzeiger auch. Wird die Erde zu trocken, dann zeigt das Gerätchen an, dass die Zimmerpflanzen bald recht durstig werden. Doch wo andere Anzeiger nur fad und kaum sichtbar in einem kleinen Fensterchen die Farbe än-dern. trumpft das „Thirsty Light“ gut sichtbar auf: Es blinkt hell und deutlich. Hat man dann gegossen, dann – so versprechen die Shop-Be-treiber – sei das Thirsty Light kaum noch zu sehen. Es sei unaufdring-lich gestaltet worden, um sich harmonisch in die Pflanzensammlung zu integrieren. Wer sich davon selbst überzeugen möchte, kann das Grün-pflanzenspielzeug für satte 13 Euro plus Versand im Internet bestellen.

Ewig gestrig?Wer jedoch weder der Natur draußen vorm Büro noch der Natur drin-nen im Büro etwas abgewinnen kann, für den hat ThinkGeek etwas ganz Besonderes im Angebot – vorausgesetzt, man hängt den guten alten Digitalzeiten an. Denn dann ist das Retro-Game-Design des „8-Bit Blumenstrauß“ genau das Richtige. Gut 33 Zentimeter hoch und dreilagig aufgebaut setzt das kunterbunte „Kunstblumenarrangement“ genau den Akzent, den das Büro noch braucht. Ein Ständer an der Rückseite sorgt für sicheren Stand, Löcher für die Möglichkeit, die Blu-men an die Wand zu schrauben – mit welchen echten Blumen kann man das schon machen?! Und Gießen braucht man diese Blümchen auch nicht. Für rund 10 Euro wechseln die Bit-Blumen den Besitzer.

Blatt für Blatt?Um Blätter in ganz anderer Hinsicht kümmert sich unser letztes Spiel-zeug. Dieses sorgt für die Vernichtung wohlmöglich geheimer oder sensibler Schriftsätze. Der „Hand Paper Shredder“ – ebenfalls von Think Geek – frisst Papier mit der puren Kraft der eigenen Hände. Vor allem im mobilen Einsatz dürfte das kleine Helferlein gute Dienste lei-sten. Wer will schon einen großen schweren Schredder mit sich rum-schleppen? Außerdem bekommt wer von Hand schreddert gleich noch seine tägliche Dosis Fitness. Allerdings sollten die Papierberge nicht zu groß sein. Mehr als ein doppelt gefaltetes DIN-A4-Blatt schafft der Mini-Häcksler nicht. Den umweltfreundlichen, weil batteriefreien Hand-Papierschredder gibt es für knapp 17 Euro im Webshop.

Die Welt der „grünen“ Spielereien

55Spiel.ZeugAccessoires. Überflüssig, aber „Nice to Have“

www . Digital-Zeitschrift.de

0 So erkennt man Bäume: weißes Blatt Papier, Baum-blatt drauf und knipsen.

1 Blink blink: Jetzt weiß auch der größte Ignorant, wann die Pflanzen durstig sind.

2 Da freut sich die Liebste: pflegeleichte Blumen im Retro-Game-Design.

3 Fit durch Datenschutz: Der „Hand Paper Shredder“ sorgt für sichere Privatsphäre.

01

2

3

foto

: th

ink

Geek

.co

Mfo

to:

th

ink

Geek

.co

Mfo

to:

fir

eb

oX

.co

M

foto

: S

Mit

hSo

nia

n in

Stit

utio

n

56 Nach. spiel Text. Jan RähmNach. spiel

Peter Hauke hat sich gefragt: Wie entsteht ein Programm für den Mac? Und Ingo Kasprzak, Softwareentwickler, wollte helfen. Das Problem ist nur: Peter wohnt in Dresden und Ingo in Castrop-Rauxel. „Es war halt schlecht möglich, einfach zu sagen, ich komm heute Abend rü-ber und wir hacken uns was zusammen“, erzählt Peter Hauke. Deswe-gen schnappte er sich die Entwicklungsumgebung Xcode und machte vorerst seine ersten Programmiererfahrungen daheim. Ingo Kasprzak schaute ihm regelmäßig per Fernübertragung des Bildschirminhaltes über die Schulter. Nur wenig später fragten sich beide, warum diesen Fernkurs und dieses entfernte Zuschauen nicht auch anderen zugute kommen lassen? Die Idee zum Podcast „Xcode von NULL auf Hundert;“ war geboren.

Die ersten Schritte„Die Idee dümpelte dann aber erst einmal gut ein Jährchen vor sich hin“, erzählt Peter, „dann aber war irgendwann Urlaub. Ich hatte viel

Zeit und wusste nicht so recht wohin damit. Da ist es dann konkret geworden mit dem Pod cast.“ Mitte 2009 legten beide los. Mit ei-ner Software nahmen sie den Bildschirm inhalt und Erklärungen auf. Dann luden sie die erste Folge auf ihren damaligen Webserver und tru-gen den Cast im iTunes-Verzeichnis ein. Sie rechneten mit 20, vielleicht 50 Downloads bei den ersten Folgen. Doch weit gefehlt. Der Pod cast startete traumhaft: „Der Zuspruch war krass. Wir sind gleich am Anfang bei iTunes als neu aufgetaucht – bei der zweiten oder drit-ten Folge schon mit der Empfehlung ‚neu und beachtenswert‘ und dann kamen noch einige Erwähnungen auf diversen Seiten im Netz und bei twitter hinzu“, sagt Ingo. Das Transfervo-

fotoS: ShutterSto

ck

Die Sendung mit dem MacWer viel mit Computern zu tun hat, kennt das: Ein Freund fragt, ob man ihm nicht ein wenig helfen könnte, und man tut es gern. Manchmal ist diese Hilfe dann der Start in ein neues Projekt, so wie beim Podcast „Xcode von NULL auf Hundert;“.

www . Digital-Zeitschrift.de

57Podcast. Fernkurs für gutes Programmieren Nach. Spiel

lumen ihres Webservers war schnell aufge-braucht. Ab der fünften Folge wurde es teuer. „Das waren auf einmal mehrere Terabyte – wir hatten nur 100 Gigabyte inklusive.“ Heute seien die Abrufzahlen vierstellig, sagt der Soft-wareentwickler. Einige 1000 Abonnenten war-ten regelmäßig auf die nächste Folge.

LehrinhalteIn „Xcode von NULL auf Hundert;“ bringt „Profi“ Ingo Kasprzak dem „Anfänger“ Peter Hauke Stück für Stück die Programmierung auf der Apple-Platform bei. Das Schöne dabei ist: Beide nehmen sich nicht all zu ernst. Auch ohne den Anspruch auf absolute Korrektheit vermittelt der Podcast alles, was zum Ver-ständnis notwendig ist. Selbst blutige Anfän-ger können schnell folgen. Kurz gesagt: Das Zuhören macht einfach Spaß. Da könnte sich so manch ein Dozent noch eine Scheibe ab-schneiden.

Von Anfang an hatten die Podcaster ein festes Konzept. Sie programmieren eine ganz kon-

krete Anwendung, die sie dann später sogar vom Mac auf iPhone und Co. bringen. „Das Programm heißt Cheddar – wie der Käse“, sagt Ingo Kasprzak, „und das Schöne ist, dass wir daran verschiedene Techniken erklären können.“

Neben dem Podcast betreiben Peter Hauke und Ingo Kasprzak noch eine Website und ein Forum. Darüber tauschen sie sich mit ihren Zu-schauern aus, geben Tipps und Hilfestellungen. „Drei, vier Zuschauer haben uns sogar schon einen Link zu ihrer App im Appstore geschickt“, freut sich Ingo. Manch einer könne damit jetzt schon richtig Geld ver-dienen.

Wie es weitergehtObwohl iPhone-App und Mac-Programm nahezu fertig sind, geht der Podcast weiter. Schließlich gebe es immer wieder neue Sachen, die man erklären könne und müsse. Erst vor Kurzem sei die neue Entwick-lungsumgebung Xcode 4 erschienen. Und dann werde ja bald auch noch das neue Mac-Betriebssystem „Lion“ veröffentlicht, sagen die Pod caster. Außerdem planen die beiden, zusätzlich zur freien Sendung noch kostenpflichtige „Pro Sessions“ anzubieten. „Unser Konzept ist ja bisher, nicht alles korrekt zu erklären, sondern verständlich zu erklä-ren“, sagt Ingo Kasprzak. In den Pro Sessions wollen sie ihre Zuschauer dann – ganz seriös – themenspezifisch in komplexe Techniken der Mac-Programmierung einführen.

foto

: pr

ivat

foto

: pr

ivat

Mit Humor bei der Sache: die Podcaster Peter (oben links) und Ingo (unten rechts).

Abgefilmt: Dank Bild-schirmaufnahme geht es gut angeleitet zum eigenen Programm.

Durchgestartet: Xcode von NULL auf Hundert; auf Platz eins der iTunes-Charts.

58

Die Zeitschrift für die Informationsgesellschaft

Dr. Max Fabiani aus Wien schlug 1911 eine Vorrichtung zur Erleichterung des Bergsteigens vor und er wurde mit einem veritablen Patent belohnt. Die Nummer: DRP 247482. Die Erfindung bezweckt eine Vorrichtung zu schaf-fen, welche die beim Strecken des im Kniegelenk gebogenen und mit dem Körpergewicht belasteten Beines durch die Streckmuskeln zu leistende Arbeit teilweise übernimmt. Etwas verständlicher ausgedrückt: Will man dem Bergwanderer seinen mühsamen Aufstieg erleichtern, so muss man dort mit einer Kraftvorrichtung eingreifen, wo die meiste Energie verbraucht wird. Und das ist bekannterweise die Streck-bewegung des Beines.Nun aber zu der Verwirklichung dieser Problemlösung. Der Erfinder schreibt dazu: „Der Erfindung gemäß wird an jedes Bein ein Lenker mit einem Ende in der Höhe des Sprungbeines an

festsitzende Umhüllungen des betref-fenden Körperteils angelenkt, welcher Lenker aus zwei einander übergreifen-den und längs aneinander verschieb-baren Längenabschnitten zusammen-gesetzt ist, sodass er sich beim Biegen des Kniegelenkes verkürzt, wobei ein arbeitliefernder Mechanismus vorhan-den ist, welcher beim Zusammenschie-ben der beiden Lenkerabschnitte mit einem gewissen Kraftaufwand aus-einanderzuschieben und dadurch das Bein in die Strecklage zu bringen.“

Welcher arbeitliefernder Mechanismus ist gemeint? Welchen Motor hat der Erfinder im Auge? Weiter im Text: „…

wobei zwischen der Zahnradwelle und der biegsamen Welle eines vom Berg-steiger am Rücken getragenen kleinen Benzinmotors eine durch Federdruck ausgerückt erhaltene Kupplung ange-ordnet ist.“ Wem das nervige Geknat-tere des Huckepack-Motors in der frei-en Natur zu laut ist, der kann auf eine alternative Antriebsmethode zurück-greifen: „… eine andere Form des Me-chanismus besteht in der Ausbildung des Endes des einen Lenkerabschnitts zu einem Kolbenzylinder, in welchem ein am anderen Lenkerabschnitt an-gebrachter Kolben gleitet, wobei der Bergsteiger einen Pressluftbehälter auf dem Rücken trägt.“

Ich kann mir bildhaft vorstellen, wie der gebildete Wiener zu einer solchen Sonntags idee kam. Schon seit Jahren fuhr er mit seiner Familie in die Alpen. Beim Aufstieg zur Alm verließ ihn re-gelmäßig die Kondition: „Menschens-kind, da müsste es doch etwas geben.“ Nun, das Ergebnis kennen Sie jetzt.

„Bergsteiger“Seit 1877 haben wir ein Patentamt und Millionen Patenschriften. Zum Patent eingereichte Inhalte müssen neu sein, dürfen nicht selbstverständlich sein, und sie dürfen dem guten Geschmack der Gesellschaft nicht zuwiderlaufen.

Kern.stück – „Informatik schafft Com-munities“ – so lautet das Motto der GI-Jahresta-gung 2011 vom 4. bis 7. Oktober in der TU Berlin.

„Digital“ greift das Thema auf und beleuchtet die verschiedenen Aspekte dieses Statements: Wir berichten über die Informatiker-Community selbst und ihre Vernetzung in Gesellschaft, Politik und Wirt-schaft. Und wir beschreiben, wie Collaboration-Tools, Kommunikations-Technologien und soziale Netz-werke neue Formen des Miteinanders ermöglichen.

PLAN.SPIEL – Nun soll er schneller kommen als geplant: Die dramatischen Ereignisse in Fukushima zwingen die Politik zum raschen Atomausstieg. Doch Experten raten: Nur mit Smart Grids sind Energie-Produktion, -Verteilung und -Verbrauch vernünftig steuerbar. „Digital“ beschreibt die Szenarien für die Einführung von Smart Grids.

Quer.Köpfe – Die Ochsentour liegt schon hin-ter ihr: Anke Domscheidt-Berg hat sich bei McKin-sey und bei Microsoft durchgesetzt und leitende Positionen eingenommen. Das, was sie auf ihrem beruflichem Weg als Frau erlebte, setzt sie nun als

selbständige Beraterin für Frauenför-derung um. Und ein zweites Thema liegt ihr sehr am Herzen: Open Government.

De.batte – Seit die Enquete-Kommission „Internet“ des Deutschen Bundestages ihre Arbeit aufgenommen hat, sind die berufenen Sachverstän-digen auf allen Kanälen präsent: Blogger wie Sascha Lobo oder Markus Beckedahl, aber auch die Sicher-heitsexpertin Constanze Kurz vom Chaos Computer Club werden von den Medien zu allen Fragen des Internets konsultiert. „Digital“ analysiert das Selbst-verständnis der Netzaktivisten und beleuchtet ihre politische Legitimation.

RES.PEKT – E-Learning ist vor allem für be-rufstätige Menschen eine hervorragende Möglich-keit, sich weiterzubilden und neue Qualifikationen zu erwerben. Doch setzen E-Learning-Systeme in den meisten Fällen eine große Technikaffinität beim Benutzer und freien Zugang zum Internet voraus. Strafgefangene mit E-Learning zu konfrontieren, ist deshalb nicht unproblematisch. Bremer Informatiker zeigen, wie es geht.

Verlag:FormatwerkstattFranzösische Str. 24, 10117 Berlin. Telefon/Fax: 0700 / 36 76 28 93; E-Mail: [email protected]

Redaktion:Digital - c/o VoxMundi Medienanstalt GmbHSchönhauser Str. 59, 50968 KölnTelefon: 02 21 / 93 77 30-22, Fax: 02 21 / 93 77 30-3E-Mail: [email protected]: www.digital-zeitschrift.de

Redaktionsteam: Anja Arp, Manfred Kloiber (V.i.S.d.P.), Rochus Rademacher, Peter WelcheringSchlussredaktion: Anke TaubitzAutoren dieser Ausgabe: Wolfgang Back, Jürgen Frisch, Michael Gessat, Pia Grund-Ludwig, Dr. Thomas Kamps, Detlev Karg, Manfred Kloiber, Dr. Kai von Lewinski, Rochus Rademacher, Jan Rähm, Prof. Dr. Arno Rolf, Heinz Schmitz, Ulrich Schmitz, Marcus Schuler, Dr. Frank Überall, Peter Welchering

Gesamtherstellung & DruckPubliKom Z, Lindenallee 47, 45127 Essen Telefon: 02 01 / 74 72 81-0, E-Mail: [email protected]

Anzeigenleitung: Andrea Parr Telefon: 02 01 / 74 72 81-14, E-Mail: [email protected]

Vertrieb: Antje Kauper Telefon: 02 01 / 74 72 81-13, E-Mail: [email protected] 2192-3841

Dieser Ausgabe liegt ein Prospekt der DIA Deutsche Informatik-Akademie GmbH bei

Vor. schau Digital. Was Sie im September/Oktober-Heft 2011 alles lesen können Im. pressum

Non. digital Text. Wolfgang Back* Backs. Abstruse Ideen aus der analogen Welt

* Wolfgang Back gehört zum Urgestein des deutschen Computerjournalismus. Als Redakteur beim WDR-Fernsehen erfand er zusammen mit Jean Pütz die Hob-bythek. Danach entwickelte er in den 1980er-Jahren mit Wolfgang Rudolph den WDR Computerclub. Jetzt sind sie als Computerclub 2 zu hören und zu sehen.

In der nächsten „Digital“, die am 6. September 2011 erscheint, geht es u. a. um Communities

certified Integrators

Zellwerk plant, gestaltet und produziert erstklassige Websites und Online-Shops mit TYPO3 und Magento. Unsere Referenzen sprechen für sich - und wir denken auch für uns.

Schauen Sie doch einmal rein. www.zellwerk.com

Keine Angst, wir machen das schon.Neue Website geplant?