Beiträge

12
Juni
2019
Künstliche Intelligenz

In der Praxis: Adobe-Software und CEWE-Fotobuch

Im letzten Teil unserer Serie zur Künstlichen Intelligenz (KI) im Grafik- und Mediendesign stellen wir zwei konkrete KIs vor. Wir zeigen ihre Anwendungsfelder und Funktionen. Die eine KI heisst „Sensei“ und wird vom Softwarehersteller Adobe eingesetzt. Die andere ist die KI des Unternehmens CEWE, die automatisiert Fotobücher erstellt und dem Nutzer so viel Arbeit abnimmt.

In den letzten Jahren kam mit dem Vormarsch der Algorithmen mehr „Intelligenz“ auch in die Gestaltungssoftware, die dem Kommunikations-Designer lästige Arbeiten abgenommen hat. Bald werden selbstlernende Systeme auf dem Vormarsch sein und geschätzt bereits in den nächsten fünf Jahren den Umgang mit Gestaltungssoftware spürbar verändern. Längst ist solch eine technische Intelligenz in anderen Bereichen zum Bestandteil unseres Alltags geworden. Ein paar Beispiele:

  • Digitaler Sprachassistent
  • Übersetzungstool
  • Spamfilter für E-Mails und Blogs
  • Navigationssysteme

Diese Systeme sind im vorgegebenen Umfang lernfähig. Eigenständig optimieren und selbst programmieren können sie aber noch nicht. Das heisst, sie sind bei ihrem Fortschritt auf den Input des Menschen angewiesen. Immerhin werden sie die Vorläufer der wirklichen Künstlichen Intelligenz sein, von der man annimmt, dass sie in den nächsten 20-40 Jahren Arbeitsleben und Alltag grundlegend verändern wird. Im Folgenden stellen wir zwei Fallbeispiele vor, in denen die Anfänge von Künstlicher Intelligenz zum Einsatz kommen. Man kann daran ermessen, in welche Richtung sich das Mediendesign entwickeln wird.

KI-Fallbeispiel 1: Fotobucherstellung mit CEWE-„Smart Solution“

Im Bereich der visuellen Kommunikation kommt der Bildanalyse ein besonderer Stellenwert zu. Denn diese Technologie ist bereits weit gediehen. So lag es nahe, dass ein Unternehmen wie
CEWE, das Marktführer im Bereich der Fotobücher ist, intelligente Technologien nutzt, um die Nutzererfahrung zu vereinfachen. Es geht dabei um die manuell mühselige Fotoauswahl und den Gestaltungsprozess von Fotobüchern über Bilderkennungsfunktionen. Dabei ist der Ansatz von
CEWE, die Fotobuchgestaltung selbst auf dem Smartphone zu ermöglichen. Die Zahlen unterstützen die Idee:

  • 2016 stammten 27% der Fotobuchbilder von Smartphones,
  • 2017 waren es schon 40%.

Der Trend immer intelligenterer und hochwertigerer Smartphone-Kameras hält an. 2017 sind schätzungsweise weltweit etwa 1,2 Billionen Fotos gemacht worden. Davon 85% per Smartphone.

Oben: Auch in der Online-Version der CEWE-Fotobuch-Software lassen sich die automatisch erzeugten Seiten leicht korrigieren. Per Klick auf ein Bild kann ihm ein anderes Format zugeordnet werden. Die entsprechenden Layout-Möglichkeiten werden rechts angezeigt.

Aus vielen Fotos die richtigen heraussuchen

Man hat erkannt, dass es Ansatzpunkte für eine Künstliche Intelligenz gibt, die die Fotobucherstellung vereinfachen. Die Vorteile für den Nutzer liegen im einfachen Handling, dem damit verbundenen Komfort und der Schnelligkeit. Dabei sind folgende Abläufe wichtig:

  • Buchgestaltung: Fotos werden automatisch platziert und beschnitten
  • Fotoauswahl: Vereinfachung des Auswahlprozesses aus großen Fotobeständen
  • Mobilität: Fotobucherstellung per App selbst auf dem Smartphone durch stark vereinfachtes User-Interface
  • Smartphonefotos: Da immer mehr Fotos mit Smartphones gemacht werden und die Smartphone-Kameras qualitativ weiter verbessert werden, greifen die Apps auf den Fotobestand des Smartphones zurück.

Die mobile Fotobuchgestaltung

Zur Zeit gibt es verschiedenste technische Möglichkeiten, ein Fotobuch zu gestalten:

  • Per Browser am Desktoprechner
  • Download des Gestaltungsprogrammes auf den eigenen Rechner
  • Per App auf dem mobilen Gerät

Dabei ist es besonders einfach und folgerichtig, die Smartphonefotos mobil über die App zu verarbeiten. Das geht erstaunlich schnell und intuitiv und ist vor allem dann sinnig, wenn man aktuelle Fotos zu einem Buch verarbeiten möchte. Nirgendwo sonst im Print-Bereich ist der Weg vom Datenbestand bis zur Produktion so kurz wie beim Fotobuch per Smartphone. Das sieht nach einem Modell auch für andere Druckbereiche aus. Man wählt Bilder aus und die App platziert diese schnell auf Fotoseiten. Das heißt: Das Buch wird in einem ersten Durchgang von der KI gestaltet, indem sie nach der thematischen Eingrenzung durch den Menschen (z.B. zukünftig per Sprachbefehl: „Verwende alle Paris-Fotos vom September“) selbstständig auswählt. Was einfach aussieht, beinhaltet komplexe Funktionen. Die Fotos werden beschnitten, das heißt, die Software erkennt die zentralen motivischen Bildbestandteile und nimmt danach die Ausschnitte vor. Später kann der Nutzer die Bildausschnitte korrigieren. Bilder können getauscht oder gelöscht werden. Auch das Seiten-Layout bezogen auf Bildgrößen und Fotoformate kann geändert werden. Alle Korrekturen erfolgen intuitiv und mit wenigen Klicks. Man muss nicht mehr wie früher Bilder manuell bearbeiten oder hin- und herschieben.

CEWE hat zur weiteren Entwicklung seiner KI auf externes Know-how zurückgegriffen. So wurde in die eigene Software die HP-Gesichtserkennung „Pixel Intelligence“ integriert, auch die „Watson“ genannte KI von IBM wurde genutzt. Schließlich wurde am Unternehmenssitz in Oldenburg der „Mobile & Artificial Intelligence Campus“ (MAIC) eingerichtet, bei dem der Austausch mit Universität und KI-Startups gesucht und gefördert wird. Welche Ziele werden damit verfolgt? In welche Richtung soll sich die KI entwickeln?

Oben: In der Smartphone-App kann man diverse Layouts auswählen (links). Rechts wird gezeigt, wie man die App bedient.

„Smart Solution“: Bildverwaltung und Bildanalyse in Einem

Die übergeordnete Aufgabe vollzieht sich zwischen Bildorganisation und Bildanalyse. Möchte man beispielsweise ein Fotobuch mit Aufnahmen einer Hochzeitsreise nach Japan produzieren lassen, soll dies zukünftig mit einem gesprochenen Satz an den Sprachassistenten wie „Erstelle mir ein Fotobuch unserer Hochzeitsreise“ möglich sein. Die KI wertet Orte, Gesichter und Ereignisse aus. Dies geschieht zum einen durch Analyse des dem Bild angehängten Metadatenbestandes in Form der EXIF-Datei. Die KI kann aber auch den Standort des Auftraggebers zugrunde legen und beispielsweise über die ortsbezogenen GPS-Daten oder Entfernungsberechnungen im Verhältnis zum Wohnort ein Land ermitteln und danach entsprechende Bilder zuordnen. Dabei ist ihre Hauptaufgabe, motivisch gute, hochaufgelöste und qualitativ gut fotografierte Bilder von verwackelten, doppelten und weniger relevanten zu trennen. Auch wenn man beispielsweise 20 Portraitaufnahmen einer Person angefertigt hat, müsste die KI in der Lage sein, daraus das beste Bild auszuwählen. Zu niedrig aufgelöste Bilder aus Messengern darf sie nicht verwenden und muss über den optimalen Tonwertumfang, die Schärfe und die Belichtungsparameter technisch gute Bilder ermitteln. Gleichzeitig soll aber auch ein Fotobuch nach Themen oder Motiven möglich sein. Dazu müssen bestimmte Orte oder Personen etwa über Tagging oder Gesichtserkennung von der KI gefunden werden. Zu einem optimalen Fotobuch kann dann noch die Bildoptimierung gehören, außerdem die Erkennung von ganz spezifischen Bildinhalten. Solche Befehle für ein Fotobuch könnten lauten

  • Personen und Tätigkeiten: „Stelle mir ein Fotobuch mit Personen zusammen, die im Winter 2020 Ski fuhren“
  • Motive: „Erstelle ein Fotobuch mit allen Landschaftsaufnahmen“
  • Objekte: „Erstelle ein Buch mit allen Bootsfahrten in Venedig“

Die KI greift auf eine kleine Anzahl von Gestaltungsvorlagen zurück und passt das Format der Fotomenge an. Cewe kategorisiert seine integrierte Lösung als „Smart Solution“.

Oben: Beispiel für eine automatisch erzeugte Doppelseite. Die Texte können hinterher hinzugefügt werden.

Datenanalyse und Bilderkennung Hand in Hand

Die KI wird hier also zunehmend in die Lage versetzt, aus unstrukturierten Daten strukturierte Auswahlen zu treffen. Dazu nutzt sie sowohl Methoden der Datenanalyse wie der Bilderkennung. Was für ein Fotobuch gilt, kann man sich zukünftig auch für die Gestaltung von Zeitschriften, Katalogen oder Büchern vorstellen: Die KI übernimmt in einem ersten Schritt die Gestaltung und damit einen wenig kreativen Teil der Seitenaufteilung. Der Gestalter der Zukunft legt Designparameter fest bzw. korrigiert und ändert, was ihm nicht gefällt. Was man am o.g. Beispiel sieht, ist, dass Sprache für die Systemsteuerung immer wichtiger werden wird. Das Verständnis von Bildern und das Erkennen der Sprachbefehle greifen dabei ineinander. Man sieht hier, dass die Effizienz der KI damit zusammenhängt, dass sie Inhalte erkennt. Das sind

  • Motive wie menschliche Gesichter,
  • Objekte,
  • Orte und
  • Zeitangaben.

Damit ist auch an die Datensicherheit ein höherer Anspruch geknüpft, denn die Kombination der Daten lässt wieder tiefe Einblicke ins Privatleben des Auftraggebers zu. CEWE hat dies erkannt und nutzt seine Möglichkeiten auch zur Erhöhung der Datensicherheit.

Abfolge der KI-gesteuerten Prozess-Schritte

Die Künstliche Intelligenz ist beim CEWE-Fotobuch ein System zur Buchgestaltung. Die KI der Zukunft versteht sich allerdings als Gesamtsystem, bei dem einzelne Schritte intelligent ineinander greifen. So spielt initiierend eine Rolle, dass das Foto mit dem Smartphone KI-unterstützt hochwertig aufgenommen und um Informationen angereichert wird. Zeitgemäße KI in Smartphones

  • kann einen intelligenten sich selbst ausrichtenden Blitz nutzen,
  • einen das Motiv nachverfolgenden Autofokus,
  • ergänzt wie in Photoshop fehlende Bildbereiche oder
  • merzt Verwacklungen aus.

Nachgeordnet ist der Fotobuchgestaltung dann ein digitaler Produktionsprozess, der ebenfalls in seiner Effizienzsteigerung von Produktions-KI profitieren wird, etwa wenn es um Farbtreue und die Logistik der Prozesssteuerung insgesamt geht.

Kleine, schnelle Lösung mit „CEWE Pure“

KI-Projekte wie dieses zeigen, dass der Nutzer mit weniger Zeitaufwand ein qualitativ besseres Produkt erhält. Mit der Smartphone-Fotobuch-App „Pure“ von CEWE werden für kleinere überschaubare, schnell zu produzierende Fotobuchprojekte genau 22 Fotos hochgeladen. Innerhalb weniger Minuten ist das 15x15cm-Buch automatisch gestaltet und kann online zur Produktion geschickt werden. Drei Tage später ist es fertig. Gestaltet werden kann am Smartphone und Tablet. In Gänze zum Zuge kommt die KI, wenn man seine Bilder im Cloudbereich des eigenen CEWE-Accounts hochlädt. Dort, im großen Datenbestand, kann die KI ihre Vorteile am besten ausspielen und wird so etwas wie eine intelligente Fotoverwaltungssoftware mit Suchmaschine und Analysetool für Fotografien. Zukünftig wird die KI nicht nur nach Personen oder Objekten suchen können, sondern auch nach Orten, Zeiträumen oder Tagen per Datum, ebenso nach Ereignissen oder Events. Natürlich lassen sich diese unterschiedlichen Dimensionen auch kombinieren.

Fototagebuch als Mix aus gesprochenem Text und Bild

Eine zukünftige Entwicklung wird das sogenannte „Fototagebuch“ sein. Hier spricht man seine Erlebnisse mit Datumsangabe in sein Smartphone, das danach die passenden Abbildungen aussucht. Die gesprochene Audiodatei wird in Text umgewandelt und bei der automatisierten Gestaltung den Bildern zugeordnet. So rundet man für sich ein Event, eine Tour oder eine Party per Fotobuch ab. Künstliche Intelligenz macht die Wege einfacher und kürzer und legt so die Schwelle, ein Fotobuch zu bestellen, deutlich tiefer. Hier sieht man mustergültig, wie man mit neuer Technik neue Märkte erschließt. Zugleich sieht man an diesem Beispiel, dass ein Unternehmen durch den Einsatz von KI als Wettbewerbsvorteil Arbeitsplätze entweder festigen oder neu schaffen kann, weil die KI mittels App den Durchsatz erhöht.

KI-Fallbeispiel 2: Grafik-Software mit Adobe-„Sensei“

Über die intelligenten Funktionen, die Adobes KI „Sensei“ den verschiedenen Softwarepaketen angedeihen lässt, war schon mehrmals in unserer KI-Serie die Rede. Allgemein erleichtert die Künstliche Intelligenz dem Gestalter schwierige Arbeiten. Beispiele sind das Freistellen von menschlichen Frisuren, weil die manuelle Haarfreistellung zeitaufwendig ist, sofern man das Motiv später vor einen farbigen Hintergrund stellen will. Aber auch Standardfunktionen profitieren hier bzw. könnten zukünftig weiter verbessert werden. Dazu zählen zum Beispiel:

  • Vektorisierung von per Hand gezeichneter Illustrationen.
  • Erstellung von Farbverläufen, die sich einer unregelmäßigen Form anpassen sollen.
  • qualitativ hochwertiges Hochrechnen von Fotos, damit deren Datenbestand für die Belichtung ausreicht.
Oben: Die Filter für die Bildersuche in der Bilddatenbank „Adobe Stock“. Es lässt sich unter anderem nach bestimmten Fotoformaten suchen, nach Bildern, die freie Flächen enthalten, auf denen man Texte platzieren könnte oder nach Bildern mit geringer oder großer Tiefenschärfe.

Bilderkennung als wesentliche Funktion

All diese Beispiele sind motivabhängig. Zum Beispiel gibt es manche Formen wie Rundungen oder Ovale, die sich schwer vektorisieren lassen – hier könnte eine sich selbst zunehmend optimierende KI die Ergebnisse verbessern. Auch den Verlust der Abbildungsschärfe beim Hochrechnen könnte die KI ausgleichen, indem sie Schärfe und Bilddetails neu berechnet. Ob beim Freistellen, beim Bildersuchen oder beim Bildbeschnitt – die Gemeinsamkeit all dieser und weiterer Funktionen ist die intelligente Bilderkennung. Eine Besonderheit bei der Bilderkennung ist in Adobe Stock realisiert. Über die sogenannten „Aesthetic Filters“ kann man nach Merkmalen der Fotografie suchen, etwa nach der Art der Schärfentiefe. Der Filter legt zugrunde, in welchem Verhältnis scharfe Bereiche und unscharfer Hintergrund zueinander stehen. Das heißt, wie hoch oder niedrig die Schärfentiefe ist. Alternativ kann man wie in der Google-Bildersuche bereits realisiert ein Bild hochladen und sich von der KI ausgewählt ähnliche Bilder aus Adobe Stock anzeigen lassen. Kriterien der Ähnlichkeiten sind Farbe, Tonwertumfang und Bildaufbau.

Oben: In „Adobe Stock“ lässt sich ein beliebiges Bildmotiv hochladen, das als Referenz für die Bildersuche dient. Die Künstliche Intelligenz sucht dann in Adobe Stock nach ähnlichen Bildern.

KI-Anwendungen in Adobe-Programmen

Adobe hat Schritt für Schritt intelligente Funktionen in seine Programme integriert, die auf Algorithmen und Künstlicher Intelligenz basieren, auch wenn die Ansätze der Künstlichen Intelligenz bisher noch simpel sind. Eine automatische Bildbehandlung wie bei Cewes Fotobuchsoftware hat Adobe bereits in einzelnen Funktionen von Photoshop, Illustrator und InDesign realisiert, etwa wenn Bildausschnitte automatisch bestimmt werden. Man kann davon ausgehen, dass KI auch in Bereichen wie „Datencheck“ und „Datei-Austausch“ über das PDF-Format weitere intelligente Funktionen anbieten wird – und manuell aufwendige Arbeitsschritte werden durch KI-Funktionen ersetzt. Bestehende Funktionen sind:

KI-Funktionen in Photoshop, zum Beispiel:

  • Motiv auswählen: für figürliche Freisteller
  • Inhaltsbasierte Füllung: Hier werden fehlende Bildteile ergänzt. Umgekehrt lassen sich auch Bildelemente entfernen und durch Hintergrundmuster ersetzen.

KI-Funktionen in Illustrator, zum Beispiel:

  • Inhaltsbasierte Freistellung: für Bildzuschnitt
  • Formgitter: für das Verzerren von Grafiken über ein Manipulationsgitter
  • Globale Bearbeitung: Bearbeitung von mehreren Elementen gleichzeitig mit einem Klick, funktioniert wie eine Formatvorlage für Texte.
  • Freihand-Verläufe: differenziertere und realistischere Farbverläufe

KI-Funktionen in InDesign, zum Beispiel:

  • Layout anpassen: Elemente auf der gestalteten Seite richten sich neu nach veränderten Seitenrändern und Spalten aus.
  • Inhaltssensitive Anpassung: Bilder werden intelligent an Bildrahmen angepasst und beschnitten.

Adobe und seine Voraussetzungen für den KI-Einsatz

Adobe ist mit der funktionalen Ausweitung seiner Softwarepalette schon vor Einführung seiner KI einige interessante Schritte gegangen:

  • Programm-Interaktion: Adobe hat es ermöglicht, Files unterschiedlicher Dateitypen zwischen den einzelnen Gestaltungs-Programmen hin- und her zu kopieren, wodurch der Datenaustausch vereinfacht wurde. Etwa zwischen Adobe Photoshop und Adobe Illustrator.
  • Adobe Bridge: Damit lassen sich Dateiversionen zwischen Adobe-Programmen managen.
  • Behance: Adobe hat 2012 das 2005 gegründete Netzwerk „Behance“ übernommen, eine Onlineplattform, auf der Designer ihre Arbeiten vorstellen und sich darüber austauschen. Interessant ist, dass man aus Programmen wie Photoshop oder Illustrator seine Arbeiten direkt in Behance speichern und damit im Web und in Social Media veröffentlichen kann.
  • Creative Cloud: Gleichzeitig kann man die eigenen Files in Adobes Creative Cloud speichern, von wo aus man sie Kollegen oder Kunden zugänglich machen kann. Sie sind mit allen Ebenen für Creative-Cloud-Mitglieder dort zu begutachten und kommentierbar, wobei man den Kommentar eingeschränkt für Personen freigeben kann oder öffentlich, sodass er auch auf Behance erscheint. Wer den Link zum Werk per Mail bekommt, braucht nicht Creative-Cloud-Mitglied sein. Mitarbeiter oder Kollegen können in den Dateien kollaborativ zusammenarbeiten.
  • Fotolia, Adobe Stock und Adobe Schriften: Direkt aus der Anwendung heraus lassen sich Bilder aus „Adobe Stock“ oder von „Fotolia“ suchen und importieren. Fotolia ist eine 2004 gegründete Bilddatenbank, die 2015 von Adobe übernommen wurde. Ebenso lassen sich aus Anwendungen heraus Adobe-Schriften suchen.

Durch diese Ebenen der Verknüpfung und Vernetzung hat Adobe bezogen auf Dateien ein System geschaffen, das auf Zusammenarbeit und Austausch angelegt ist. Eine KI, die zukünftig hierauf aufsetzt, kann diese Vorteile nutzen und innerhalb des Anwenderprogrammes immer zielgerichteter Bilder und Schriften vorschlagen, auf Behance ähnliche Gestaltungsansätze suchen und die Zusammenarbeit weiter intelligent durchlässig für Austausch und Kooperation machen.

Wer wird Künstliche Intelligenz anbieten?

Dabei ist einen Gedanken wert, welche Unternehmen sich eigentlich KI leisten können. Zur Zeit stellt Adobe die KI „Sensei“ seiner Softwarepalette heraus, nutzt ihre Möglichkeiten aber nicht nur im Gestaltungsbereich sondern bietet auch Dienstleistungen für externe Kunden vor allem im Datenanalyse- und Marketingbereich an. Werden sich kleinere Softwarehersteller auch KI-Technologie leisten können und wird es so einen gesunden Wettbewerb geben? Oder baut Adobe seinen Vorsprung aus? Im Moment ist zu beobachten, dass große KI-Unternehmen wie IBM ihre Software anderen Unternehmen als Dienstleister anbieten. Adobe könnte Auftragnehmer andere Softwarehäuser werden oder seinen Wettbewerbsvorteil bei der Grafiksoftware in der Alleinstellung suchen. Wird die Künstliche Intelligenz zukünftig den Wettbewerb verstärken oder wird der Markt der Grafiksoftware sich aufspalten in Software mit und Software ohne KI, weil sich kleinere Anbieter KI nicht leisten können? Was wird mit Public-Domain-Software-Projekten wie der Photoshop-Alternative „Gimp“ oder der Vektorsoftware „Inkscape“ geschehen?

Fazit: Die schnelle KI
Wenn man bedenkt, dass die Künstliche Intelligenz im Sinne der Selbstoptimierung und Selbstprogrammierung für den Grafiksoftware-Anwender noch gar nicht richtig Fahrt aufgenommen hat, sind die bisherigen Funktionen schon vielversprechend. CEWE geht einen Weg funktionaler Einfachheit, Adobe ergänzt nach und nach einzelne Funktionen in mächtigen Werkzeugen wie Photoshop oder Illustrator. Experten sagen, dass sich bezogen auf einzelne Anwendungen in ein paar Jahren viel tun kann. In dieser Zeit ist nicht mit einem komplexen KI-System zu rechnen aber die Software bis zur Mitte des nächsten Jahrzehnts wird für den Grafik- und Mediendesigner vieles vereinfachen und so hochwertige Design-Ergebnisse schneller möglich machen.

Ralf Wasselowski
Unser Gastautor: Ralf Wasselowski. Er betreibt die Agentur Conceptbüro in Essen und ist ein Kenner der Design-, Grafik- und Werbebranche. ©Ralf Wasselowski
4
April
2019
Künstliche Intelligenz

Vom Algorithmus zur Super-Intelligenz

Künstliche Intelligenz (KI) ist in aller Munde. Mal als potenzieller Arbeitsplatzvernichter und Veränderer der Gesellschaft, mal zur Effizienzsteigerung. Dabei soll sie Unternehmen flexibler machen und Arbeitnehmern unbequeme Arbeiten abnehmen. Die KI hält nun auch Einzug im Mediendesign und in der Medienproduktion und zeigt, dass es auch hier Veränderungen geben wird. Im ersten Teil unserer Serie zum Thema „Künstliche Intelligenz“ widmen wir uns all dem, was diese Künstliche Intelligenz grundlegend ausmacht: Wie ist sie definiert und welche Konzepte kommen zum Tragen?

Was „Künstliche Intelligenz“ (KI) oder „Artificial Intelligence“ (AI) ganz genau ist, darüber herrscht Uneinigkeit. Denn der Grenzverlauf zwischen klug programmierten Softwaresystemen und der technischen „Künstlichen Intelligenz “, die der menschlichen Leistungsfähigkeit gleichen soll, ist umstritten. Schon lange wird beispielsweise alles, was von zunehmend komplexeren Algorithmen gesteuert wird, lapidar als „Künstliche Intelligenz“ bezeichnet. Sofern man jedoch die komplexen Möglichkeiten des Menschen bezüglich seiner Intelligenz zugrunde legt, zeigt sich, dass technische Lösungen noch im Hintertreffen sind. Im Hinblick darauf, wie der Mensch sich Wirklichkeit aneignet und wie er sie beeinflusst, ist ein noch so leistungsfähiger Algorithmus nur eine Teillösung. Oft sogar ist er lediglich eine recht kleine Lösung, die sich auf eine simple Aufgabe konzentriert: etwa Navigation, Ampelschaltung, Gesichtserkennung oder im Fotobereich Motiverkennung.

Was macht „Künstliche Intelligenz“ aus?

Allgemein gesagt ist die KI der Versuch, das menschliche Urteilsvermögen und sein Bewusstsein technisch nachzubilden. Deshalb müssen sich Informatiker zuerst grundlegende Gedanken darüber machen, welche Fähigkeiten und Abläufe dem Menschen seine Wahrnehmung, sein Fühlen, Denken und Handeln überhaupt ermöglichen. Auch die biochemischen Grundlagen der Nervenzellenvernetzung im Gehirn wurden analysiert und ihr Aufbau in einer digitalen Form umgesetzt. Die Antworten darauf, was eine KI in ihrer Praxis ausmacht, sind dementsprechend vielfältig.

Zunächst ist auffällig, dass die KI der Leistungsfähigkeit des Menschen vor allem dann überlegen ist, wenn es um die Bewältigung großer Datenmengen geht. Soll ein Mensch etwa eine Katze auf einem Foto erkennen und die KI ebenso, fällt kein Unterschied ihrer Leistungsfähigkeit auf. Würde man die KI aber in zwei Stunden 1.000.000 Bilder nach dem Motiv durchsuchen lassen, wäre ihr Vorteil klar: Der Mensch bräuchte weitaus länger für einen vergleichsweise eintönigen Job und ihm würden bei der Motiverkennung aus Konzentrationsmangel auch Fehler unterlaufen. Die KI wird ebenfalls nicht fehlerfrei sein, kann aber im Prozess der Bilderkennung immer weiter optimiert werden. Schnelligkeit ist für sie nur eine Frage der Ressourcen, etwa der Rechenleistung oder der Art ihrer Programmierung. Bei solchen Aufgabenstellungen, bei denen es um große Datenmengen geht, kommt der Begriff „Big Data“ ins Spiel.

Künstliche Intelligenz hat Potential
Oben: Die Künstliche Intelligenz ist so gut wie die Daten, mit denen sie der Mensch füttert.

Was kann Big Data?

Die herkömmliche Datenverarbeitung hatte in kurzen Durchlaufzeiten etwa bei Datenbankabfragen schon einiges geleistet, zu dem der Mensch in derselben Zeit nicht in der Lage gewesen wäre. Big Data fügt dem eine weitere Dimension hinzu: Hier geht es um riesige Datenmengen, die mit den damaligen Datenverarbeitungskonzepten nicht bewältigt werden konnten. Big Data bezieht sich im Wesentlichen auf drei Dimensionen der Tätigkeiten:

  • Größe: Datenvolumen und Umfang der Tätigkeit
  • Schnelligkeit: Geschwindigkeit für die Datenerzeugung und den Datentransfer
  • Varianz: Unterschiedliche Datentypen und ihr Ursprung

Big Data kann also die Verarbeitung riesiger Datenbestände bewerkstelligen, die vorher nicht möglich war. Aus diesen lassen sich aber nicht nur Ergebnisse extrahieren, die schiere Fülle an Informationen ist auch ein gutes Feld für weitergehendes Lernen des Systems.

Machine Learning: Lernen aus großen Datenbeständen

Oft wird „Machine Learning“ mit „Künstlicher Intelligenz“ gleichgesetzt. Um Machine Learning zu nutzen, wird dem Computer-System eine große Menge an Daten zur Verfügung gestellt, aus deren Auswertung es lernt. Damit ein System zum Beispiel kompetent Schach spielen kann, wird ihm der Verlauf der bekannten Spielverläufe als Datensatz überspielt. Es kann diesen Grunddatenbestand analysieren und daraus Folgerungen ableiten. So sind Computersysteme inzwischen in der Lage bei Spielen wie Schach oder Go jeden Menschen zu schlagen.

Allerdings: Wenn Machine Learning mit KI gleichgesetzt wird, dann wäre Machine Learning eher als Anfang einer vergleichsweise wenig leistungsfähigen KI zu verstehen. Denn es geht hierbei immer nur um die Bewältigung einer Aufgabe, während menschliche Intelligenz viele komplexe Aufgaben handhabt. Machine Learning macht sich Statistik-Verfahren zunutze, indem es aufgrund der eingegebenen Daten Wahrscheinlichkeiten hochrechnet. Wenn es beispielsweise in den Daten von 10.000 Schachspielen verschiedene Gruppen von Erfolgsvarianten ermittelt, kann es daraus für eigene Spielzüge Erfolgswahrscheinlichkeiten berechnen. Damit die Software komplexer wird und mehr kann, werden sogenannte „neuronale Netze“ genutzt, die noch mehr Leistung bringen.

Neuronale Netze nutzen Deep Learning

Der Begriff „neuronales Netz“ ist alt, er stammt aus dem Jahr 1943. Er steht für die Kopplung mehrerer Algorithmen. Algorithmen sind Programmierungen, die bestimmte genau beschriebene Aufgaben erfüllen oder Probleme lösen. Man spricht bei den neuronalen Netzen von einem Schicht-Modell, bei dem jede Schicht ihre spezifische Aufgabe erfüllt und an die nächste Schicht weitergibt. Jede Schicht löst auf Grundlage der vorher aufbereiteten Daten seine spezifische Aufgabe. Zugleich vollzieht sich die Bearbeitung von Informationen von Schicht zu Schicht wie ein Filtersystem, das anfänglich grob arbeitet und danach immer weiter verfeinert wird. So fließen jeweils die Ergebnisse einer Speziallösung in die Aufgabenlösung der nächsten Schicht ein. Geschaffen wird so ein Rechengebilde, das in der Lage ist, hochkomplexe Aufgaben zu bewältigen. Damit wird künstlich die Struktur des menschlichen Gehirns mit seiner neuronalen Vernetzung nachgebildet.

„Deep Learning“ bezieht sich auf die Mehrdimensionalität der Rechen-Schichten, die viel komplexere Aufgaben lösen können als früher, wo vergleichsweise eindimensionale Rechenstrukturen vorlagen.

Puristen würden aber auch hier noch nicht von einer „Künstlichen Intelligenz“ sprechen. Um dem Begriff der KI dennoch gerecht zu werden, hat man sich auf drei differenzierende Begriffe geeinigt, die verschiedene Leistungsstufen beschreiben: die schwache und starke KI sowie die Super-KI.

Was ist die „schwache Künstliche Intelligenz“?

Alles, von dem bisher die Rede war, zählt zur sogenannten „schwachen Künstlichen Intelligenz“. Diese ist in der Lage, eine einzige Aufgabe zu erfüllen, zum Beispiel Schach oder Go besser als der Mensch zu spielen. Damit bildet sie aber lediglich den spezialisierten Ausschnitt einer Fähigkeit des Menschen ab. Konkurrenz kann sie ihm so nur in einem eng definierten Bereich machen, selbst wenn die Ergebnisse dort beeindruckend sind.

Was ist die „starke Künstliche Intelligenz“?

Die eigentliche Künstliche Intelligenz soll aber tendenziell an die zahlreich verschachtelten Möglichkeiten des Menschen heranreichen. Die Leistungsfähigkeit des Menschen liegt darin, unterschiedliche Sinneswahrnehmungen, die ihm Erkenntnisse über die Welt verschaffen, mit seinem Fühlen und Denken zu kombinieren. Das versetzt ihn in die Lage auf Erfordernisse schnell zu reagieren und Entscheidungen zu treffen. Entscheidungsfindung ist die Grundlage von Handeln. An diesem Punkt, dem des Agierens, kommen Roboter ins Spiel. Denn selbst wenn eine Maschine in der Lage wäre, eigenständig komplexe Sachverhalte wahrzunehmen und zu analysieren, könnte sie nur elektronisch „denken“ und nicht handeln. Wäre die KI allerdings Bestandteil eines künstlichen Organismus, der sich bewegen kann, der etwa laufen und greifen kann, würde sich einiges ändern. Dann hätte man einen kooperativen Roboter, der etwa in einer Druckerei registrieren würde, welches Papier für den nächsten Druckgang benötigt würde. Er könnte autonom Papier aus dem Lager holen und selbstständig in die Druckmaschine einlegen. Ein letzter Schritt, der den Menschen auszeichnet, ist seine Lernfähigkeit. Das System müsste also den Erfolg seiner Rechenleistung und ggf. seiner eigenen Handlungen beurteilen und dadurch Veränderungspotenziale für seine zukünftigen Aktionen ermitteln.

Allerdings: Dass selbst eine starke Künstliche Intelligenz einen ironisch gemeinten Witz von Ernsthaftigkeit unterscheiden kann, erscheint auch zukünftig schwierig. Den Unterschied für das Verständnis eines Witzes machen – neben Wissen – die Wahrnehmung, die soziale und kulturelle Eingebundenheit und das Wertesystem des Menschen. Sie bilden den Bezugsrahmen für das Verständnis eines Witzes. Es gibt viele Bereiche der Gesellschaft, etwa die Beurteilung von Kunst oder Literatur oder generell die Einbindung in kommunikative Prozesse, die schwer in die digitale Welt zu transferieren sind. Aus all dem folgt, dass eine KI viel mehr können muss als sie es im Augenblick kann. Eine solche dem Menschen vergleichbare technische Intelligenz wäre die sogenannte „Superintelligenz“.

Die Singularität als Superintelligenz

Eine KI, die die menschlichen komplexen Leistungen erbringen kann, lernfähig und autonom ist, nennt man „Superintelligenz“. Sie löst nicht mehr nur ein Problem, sondern wird zur „generalistischen KI“, die wie ein Mensch über Vieles nachdenken und entscheiden kann. Vor allem aber: Sie kann sich selbst weiter programmieren und damit zusehends optimieren. Je mehr sie dies wieder und wieder tut, desto tendenziell perfekter würde sie werden, bis sie dem Menschen weit überlegen ist. Diese Künstliche Intelligenz, die auch „technologische Singularität“ genannt wird, wird sich viel schneller als der Mensch optimieren können. Sie stellt in dieser Zukunftsvision einen technischen Organismus dar, der im Gegensatz zum Menschen seine eigene Evolution ungemein beschleunigen könnte. Google-Zukunftsforscher Raymond “Ray” Kurzweil oder Tesla-Chef Elon Musk gehen davon aus, dass eine solche KI dem Menschen potenziell gefährlich werden könnte. Deshalb fordern sie, dass jede KI „friendly“ programmiert werden muss, das heißt: nicht gegen den Menschen gerichtet sein darf.

Selbstständiges Lernen und eigenständige Optimierung sind Kennzeichen einer echten künstlichen Intelligenz
Oben: Echte Künstliche Intelligenz beginnt selbstständig zu lernen und sich umprogrammierend zu optimieren.

Inwieweit geht KI über Algorithmen hinaus?

Man sieht an diesem Drei-Stufen-Modell, dass Algorithmen Bestandteile von KI sind, wie Big Data oder neuronale Netze auch. Eine richtige KI ist dem Menschen und seinen Fähigkeiten nachgebildet. Das betrifft vor allem drei Aspekte:

  • Lernfähigkeit
  • Fähigkeit zur Reflektion und Selbstreflektion
  • Selbstbestimmtes Entscheiden und Agieren

Im Zusammenhang mit der KI ist vor allem der Begriff des „Lernens“ bzw. der „Lernfähigkeit“ zentral. Hier unterscheidet man verschiedene Ansätze, bei denen die KI entweder alleine lernt oder mithilfe des Menschen:

Supervised Learning: Der Mensch leitet die Maschine an

Das System bekommt vom Menschen strukturelle Vorgaben, nach denen es die Datensätze analysiert und auswertet. So eine vereinfachte Anweisung im Gestaltungsprozess könnte etwa lauten: „Suche im Bildarchiv alle Motive mit weißen Tieren heraus. Ordne sie nach Katzen, Hunden und Pferden.“

Unsupervised Learning: Die Maschine solo

Das System analysiert einen Datenbestand ohne Vorstrukturierung durch den Menschen und extrahiert selbstständig daraus Muster, die etwa hierarchisch geordnet werden. Hier könnte die Anweisung dem Sinn nach lauten: „Sieh dir den Datenbestand an und erkenne Muster.“ Den Rest macht die Maschine.

Reinforcement Learning

„Reinforcement Learning“ bedeutet „verstärkendes Lernen“ im Sinne eines Motivierens. Dabei werden manche Verhaltensweisen verstärkt, andere negativ bewertet. Bei KI-Systemen werden Echtzeitdaten genutzt, um neue Lösungen zu finden. Zum Beispiel wenn ein Roboter ein ihm bisher unbekanntes Hindernis überwinden soll, kann per Machine Learning eine Bewegungsstrategie entwickelt werden. Sie basiert auf der Analyse aller bekannter Hindernisse und deren Bewältigungsmustern. Dabei werden erfolgreiche Verhaltensweisen positiv bewertet, weniger erfolgreiche ausgemustert.

Ein Beispiel aus der Zukunft des Designs: Man könnte ein System mit Gestaltungsgesetzen füttern und mit Daten von Blickbewegungskameras aus Laborversuchen, bei denen die Teilnehmer verschiedene Designvarianten betrachten mussten. Die Auswertung der Blickbewegung würde zum Beispiel die Verweildauer auf Überschriften, Bildern und sonstigen Gestaltungselementen zeigen. Die Gestaltungsgesetze wären ein Rahmen, der dem System vermittelt, wie Elemente anzuordnen sind. Beide Datensätze – a) wie gestaltet werden soll und b) was die Blicke des Betrachters vor allem anzieht – könnten dazu führen, dass das System alternative Gestaltungsentwürfe ausarbeitet. Wenn man der KI Texte, Bilder und weitere Gestaltungselemente liefern würde, würde sie daraus Designvarianten entwickeln, die der Designer weiter ausarbeiten könnte.

Schon künstliche Intelligenz? Automatische Layout-Anpassung bei InDesign
Oben: InDesign bietet die Option „Layout anpassen“. In InDesign CS6 heisst sie „Alternatives Layout“. Damit übernimmt das Programm layoutmässige Umstellungen etwa bei Formatänderungen.

Welche KI-Konzepte sind für den Designbereich relevant?

Der Traum von der intelligenten bzw. automatisierten Gestaltung durch den Computer ist so alt wie das Desktop-Publishing, das heißt, das computergestützte Publizieren. Die Anzeigen-Gestaltungssoftware „MultiAd-Creator“ bot schon in den Anfangstagen des Desktop-Publishing speziell für die Formatänderung von Anzeigen eine flexible Lösung an: die vorhandenen Elemente wurden automatisch neu angeordnet, damit sie auf das neue Format passen. Eine ähnliche Option bietet heute Adobe InDesign über die Funktion „Layout anpassen“. Ein anderes Programm, das 1992 auf den Markt kam, hieß „IntelliDraw“ und kam von „Aldus“, einem der Erfinder des Desktop-Publishing. Es sollte ermöglichen, Flächen mit wenig Aufwand und viel technischer Intelligenz umzuformen. Die Konzepte dieser Programme stammten aus Zeiten, in denen die Welt begeistert war von den Möglichkeiten der grafik-basierten Gestaltungscomputer. Man traute den Systemen viel zu, doch die Konzepte des mitdenkenden Programmes konnten sich zunächst nicht durchsetzen. Das lag vor allem an den fehlenden Ressourcen: Die Computer wären nicht leistungsfähig genug gewesen, um umfangreiche Projekte neu zu berechnen. Auch begannen die Software-Ingenieure erst, die Funktionalitäten großer Grafik-Programme aufzubauen.

Heute stehen hardwaremäßig die Ressourcen bereit. Das CEWE-Fotobuch etwa bietet über den Einsatz von KI inzwischen die Möglichkeit, Bilder hochzuladen – die Gestaltung übernimmt die Künstliche Intelligenz. Sie kann Gesichter und Orte erkennen und nutzt dafür die Bildmetadaten. Das System verteilt die Bilder auf den Seiten und macht Vorschläge für Fotogrößen. Es geht also bei der Kopplung von KI und Design vor allem darum, den Designprozess zu vereinfachen, zu beschleunigen und die Qualität der standartisierten Gestaltung zu verbessern.

Wo wird KI im Mediendesign und der Medienproduktion zukünftig eingesetzt?

Künstliche Intelligenz ist aktuell zum Beispiel im Bereich der Bilderkennung weit fortgeschritten. Die Adobe-KI „Sensei“ hilft dem Designer besser und schneller, benötigte Fotomotive zu finden. In welchen Bereichen ist KI noch denkbar?

  • KI-gestützte Layouts: Die Rede war bereits von der KI, die für den Designer die Vorarbeiten erledigt. Bei einem Buch etwa könnte sie alle Texte und Bilder vorplatzieren und Fußnoten setzen. Aber es ist auch denkbar, dass sich Standardgestaltungen hin zu Dienstleistern wie Druckereien verlagern. Über KI-gesteuerte Templates könnten Erstentwürfe online schnell wie nie realisiert werden.
  • Automatisierte Layouts: Eine KI kann einen Datenbestand selbstständig visualisieren. Was jetzt schon möglich ist: die KI generiert etwa aus der Gesamtheit der betriebswirtschaftlichen Zahlen eines Unternehmens selbstständig eine Powerpoint-Präsentation.
  • KI als Assistent: Um Einheitlichkeit gerade im Corporate Design zu gewährleisten, müssen Designregeln angewendet werden. Ein Mittel, diese stringent zu realisieren, sind Gestaltungsraster. Es ist denkbar, dass die KI diese Designvorgaben enthält. Dies könnte sie in die Lage versetzen, ein kompetenter Assistent des Designers zu werden. Sie zeigt ihm etwa an, wo seine Fotogrößen nicht ins Konzept passen oder macht Farbvorschläge, die zum Unternehmens-Farbkanon passen.
  • Datencheck-Erweiterung: Ein mächtiges Tool der Qualitätssicherung im Onlinedruck ist der Datencheck. Dabei wird geguckt, ob die Daten druckkonform sind. Es ist denkbar, dass dieser Datencheck erweiterte Möglichkeiten bieten wird. Er könnte zukünftig zum Beispiel erkennen, ob Elemente in Randnähe falsch platziert sind.
  • Kooperative Roboter: Wenn die KI autonom agierende bewegliche Systeme steuert, könnten kooperative Roboter entstehen, die Arbeiten in Druckereien erledigen.
  • Logistik/Auslieferung: KI-gestützte Drohnen könnten Drucksachen individuell und flexibel ausliefern.
  • Kommunikation: Sprachgesteuerte Systeme wie Amazon Echo mit Alexa oder Google Home könnten Bestellungen von Drucksachen kommunikativ begleiten. So könnte etwa der Nachdruck einer Drucksache mit ein paar Sprachbefehlen veranlasst werden.

Dies sind Beispiele dafür, an welchen Stellen Künstliche Intelligenz den Arbeitsalltag von Designern, Produktionern oder Auftraggebern verändern könnte. Wir werden dies in den nächsten Teilen unserer Serie vertiefen.

Fazit: KI zwischen Möglichkeiten und Überforderung

Künstliche Intelligenz ist ein jahrzehntealter Forschungsbereich. Viele große Unternehmen versuchen nun die Möglichkeiten der Künstlichen Intelligenz auf die Praxis anzuwenden. Das sind Händler wie Amazon, Internetkonzerne wie Google oder Facebook oder Technologiekonzerne wie die Google-Mutter Alphabet, die technische Intelligenz in selbstfahrende Autos oder Haustechnik bringt. Auch Apple oder Microsoft gehören dazu. Da auch SAP als Unternehmen mit Lösungen für den Mittelstand KI einsetzt, werden auch mittelständische Unternehmen KI-Services einsetzen oder selbst entwickeln können.

Dabei ist etwas festzustellen, das auf den ersten Blick widersprüchlich klingt:

  • Kindliche KI: Künstliche Intelligenz steckt einerseits noch in den Kinderschuhen. Einige Experten sehen die konkreten durchschlagenden Auswirkungen dieser Technologie noch Jahrzehnte entfernt.
  • Erwachsene KI: Andererseits wächst dieses technologische Kind viel schneller, als wir es uns vorstellen können. Die Selbstlernfähigkeiten und Optimierungsmöglichkeiten werden vermutlich schneller als gedacht Leistungsgrenzen einreißen. Vor allem dort, wo in der Wirtschaft ein hoher Konkurrenzdruck vorhanden ist. Denn Konkurrenzdruck bedeutet, dass Innovationen und Effizienzsteigerungen einen entscheidenen Wettbewerbsvorteil bringen können.

Diese Veränderung durch den Einsatz von KI ist im Zusammenhang mit anderen Technologien zu sehen, die sich parallel entwickelt haben. Die Sprachsteuerung etwa könnte die Computer-/Designer-Interaktion verbessern. Eine KI wäre sogar in der Lage in einen Dialog mit dem Designer einzutreten, um Gestaltungsabläufe zu begleiten.

Ein intelligentes System kann aber nur dazu lernen, wenn es relevante Daten nutzen kann. Deshalb müssen sich Software-Ingenieure Gedanken machen, welche Daten sie bereitstellen, damit das System seine Arbeit optimal erledigen kann. Auf absehbare Zeit, ist die KI also vom Menschen abhängig.

Infografik zu "Vom Algorithmus zur Super-Intelligenz"
Ralf Wasselowski
Unser Gastautor: Ralf Wasselowski. Er betreibt die Agentur Conceptbüro in Essen und ist ein Kenner der Design-, Grafik- und Werbebranche. ©Ralf Wasselowski