Beiträge

12
Juni
2019
Künstliche Intelligenz

In der Praxis: Adobe-Software und CEWE-Fotobuch

Im letzten Teil unserer Serie zur Künstlichen Intelligenz (KI) im Grafik- und Mediendesign stellen wir zwei konkrete KIs vor. Wir zeigen ihre Anwendungsfelder und Funktionen. Die eine KI heisst „Sensei“ und wird vom Softwarehersteller Adobe eingesetzt. Die andere ist die KI des Unternehmens CEWE, die automatisiert Fotobücher erstellt und dem Nutzer so viel Arbeit abnimmt.

In den letzten Jahren kam mit dem Vormarsch der Algorithmen mehr „Intelligenz“ auch in die Gestaltungssoftware, die dem Kommunikations-Designer lästige Arbeiten abgenommen hat. Bald werden selbstlernende Systeme auf dem Vormarsch sein und geschätzt bereits in den nächsten fünf Jahren den Umgang mit Gestaltungssoftware spürbar verändern. Längst ist solch eine technische Intelligenz in anderen Bereichen zum Bestandteil unseres Alltags geworden. Ein paar Beispiele:

  • Digitaler Sprachassistent
  • Übersetzungstool
  • Spamfilter für E-Mails und Blogs
  • Navigationssysteme

Diese Systeme sind im vorgegebenen Umfang lernfähig. Eigenständig optimieren und selbst programmieren können sie aber noch nicht. Das heisst, sie sind bei ihrem Fortschritt auf den Input des Menschen angewiesen. Immerhin werden sie die Vorläufer der wirklichen Künstlichen Intelligenz sein, von der man annimmt, dass sie in den nächsten 20-40 Jahren Arbeitsleben und Alltag grundlegend verändern wird. Im Folgenden stellen wir zwei Fallbeispiele vor, in denen die Anfänge von Künstlicher Intelligenz zum Einsatz kommen. Man kann daran ermessen, in welche Richtung sich das Mediendesign entwickeln wird.

KI-Fallbeispiel 1: Fotobucherstellung mit CEWE-„Smart Solution“

Im Bereich der visuellen Kommunikation kommt der Bildanalyse ein besonderer Stellenwert zu. Denn diese Technologie ist bereits weit gediehen. So lag es nahe, dass ein Unternehmen wie
CEWE, das Marktführer im Bereich der Fotobücher ist, intelligente Technologien nutzt, um die Nutzererfahrung zu vereinfachen. Es geht dabei um die manuell mühselige Fotoauswahl und den Gestaltungsprozess von Fotobüchern über Bilderkennungsfunktionen. Dabei ist der Ansatz von
CEWE, die Fotobuchgestaltung selbst auf dem Smartphone zu ermöglichen. Die Zahlen unterstützen die Idee:

  • 2016 stammten 27% der Fotobuchbilder von Smartphones,
  • 2017 waren es schon 40%.

Der Trend immer intelligenterer und hochwertigerer Smartphone-Kameras hält an. 2017 sind schätzungsweise weltweit etwa 1,2 Billionen Fotos gemacht worden. Davon 85% per Smartphone.

Oben: Auch in der Online-Version der CEWE-Fotobuch-Software lassen sich die automatisch erzeugten Seiten leicht korrigieren. Per Klick auf ein Bild kann ihm ein anderes Format zugeordnet werden. Die entsprechenden Layout-Möglichkeiten werden rechts angezeigt.

Aus vielen Fotos die richtigen heraussuchen

Man hat erkannt, dass es Ansatzpunkte für eine Künstliche Intelligenz gibt, die die Fotobucherstellung vereinfachen. Die Vorteile für den Nutzer liegen im einfachen Handling, dem damit verbundenen Komfort und der Schnelligkeit. Dabei sind folgende Abläufe wichtig:

  • Buchgestaltung: Fotos werden automatisch platziert und beschnitten
  • Fotoauswahl: Vereinfachung des Auswahlprozesses aus großen Fotobeständen
  • Mobilität: Fotobucherstellung per App selbst auf dem Smartphone durch stark vereinfachtes User-Interface
  • Smartphonefotos: Da immer mehr Fotos mit Smartphones gemacht werden und die Smartphone-Kameras qualitativ weiter verbessert werden, greifen die Apps auf den Fotobestand des Smartphones zurück.

Die mobile Fotobuchgestaltung

Zur Zeit gibt es verschiedenste technische Möglichkeiten, ein Fotobuch zu gestalten:

  • Per Browser am Desktoprechner
  • Download des Gestaltungsprogrammes auf den eigenen Rechner
  • Per App auf dem mobilen Gerät

Dabei ist es besonders einfach und folgerichtig, die Smartphonefotos mobil über die App zu verarbeiten. Das geht erstaunlich schnell und intuitiv und ist vor allem dann sinnig, wenn man aktuelle Fotos zu einem Buch verarbeiten möchte. Nirgendwo sonst im Print-Bereich ist der Weg vom Datenbestand bis zur Produktion so kurz wie beim Fotobuch per Smartphone. Das sieht nach einem Modell auch für andere Druckbereiche aus. Man wählt Bilder aus und die App platziert diese schnell auf Fotoseiten. Das heißt: Das Buch wird in einem ersten Durchgang von der KI gestaltet, indem sie nach der thematischen Eingrenzung durch den Menschen (z.B. zukünftig per Sprachbefehl: „Verwende alle Paris-Fotos vom September“) selbstständig auswählt. Was einfach aussieht, beinhaltet komplexe Funktionen. Die Fotos werden beschnitten, das heißt, die Software erkennt die zentralen motivischen Bildbestandteile und nimmt danach die Ausschnitte vor. Später kann der Nutzer die Bildausschnitte korrigieren. Bilder können getauscht oder gelöscht werden. Auch das Seiten-Layout bezogen auf Bildgrößen und Fotoformate kann geändert werden. Alle Korrekturen erfolgen intuitiv und mit wenigen Klicks. Man muss nicht mehr wie früher Bilder manuell bearbeiten oder hin- und herschieben.

CEWE hat zur weiteren Entwicklung seiner KI auf externes Know-how zurückgegriffen. So wurde in die eigene Software die HP-Gesichtserkennung „Pixel Intelligence“ integriert, auch die „Watson“ genannte KI von IBM wurde genutzt. Schließlich wurde am Unternehmenssitz in Oldenburg der „Mobile & Artificial Intelligence Campus“ (MAIC) eingerichtet, bei dem der Austausch mit Universität und KI-Startups gesucht und gefördert wird. Welche Ziele werden damit verfolgt? In welche Richtung soll sich die KI entwickeln?

Oben: In der Smartphone-App kann man diverse Layouts auswählen (links). Rechts wird gezeigt, wie man die App bedient.

„Smart Solution“: Bildverwaltung und Bildanalyse in Einem

Die übergeordnete Aufgabe vollzieht sich zwischen Bildorganisation und Bildanalyse. Möchte man beispielsweise ein Fotobuch mit Aufnahmen einer Hochzeitsreise nach Japan produzieren lassen, soll dies zukünftig mit einem gesprochenen Satz an den Sprachassistenten wie „Erstelle mir ein Fotobuch unserer Hochzeitsreise“ möglich sein. Die KI wertet Orte, Gesichter und Ereignisse aus. Dies geschieht zum einen durch Analyse des dem Bild angehängten Metadatenbestandes in Form der EXIF-Datei. Die KI kann aber auch den Standort des Auftraggebers zugrunde legen und beispielsweise über die ortsbezogenen GPS-Daten oder Entfernungsberechnungen im Verhältnis zum Wohnort ein Land ermitteln und danach entsprechende Bilder zuordnen. Dabei ist ihre Hauptaufgabe, motivisch gute, hochaufgelöste und qualitativ gut fotografierte Bilder von verwackelten, doppelten und weniger relevanten zu trennen. Auch wenn man beispielsweise 20 Portraitaufnahmen einer Person angefertigt hat, müsste die KI in der Lage sein, daraus das beste Bild auszuwählen. Zu niedrig aufgelöste Bilder aus Messengern darf sie nicht verwenden und muss über den optimalen Tonwertumfang, die Schärfe und die Belichtungsparameter technisch gute Bilder ermitteln. Gleichzeitig soll aber auch ein Fotobuch nach Themen oder Motiven möglich sein. Dazu müssen bestimmte Orte oder Personen etwa über Tagging oder Gesichtserkennung von der KI gefunden werden. Zu einem optimalen Fotobuch kann dann noch die Bildoptimierung gehören, außerdem die Erkennung von ganz spezifischen Bildinhalten. Solche Befehle für ein Fotobuch könnten lauten

  • Personen und Tätigkeiten: „Stelle mir ein Fotobuch mit Personen zusammen, die im Winter 2020 Ski fuhren“
  • Motive: „Erstelle ein Fotobuch mit allen Landschaftsaufnahmen“
  • Objekte: „Erstelle ein Buch mit allen Bootsfahrten in Venedig“

Die KI greift auf eine kleine Anzahl von Gestaltungsvorlagen zurück und passt das Format der Fotomenge an. Cewe kategorisiert seine integrierte Lösung als „Smart Solution“.

Oben: Beispiel für eine automatisch erzeugte Doppelseite. Die Texte können hinterher hinzugefügt werden.

Datenanalyse und Bilderkennung Hand in Hand

Die KI wird hier also zunehmend in die Lage versetzt, aus unstrukturierten Daten strukturierte Auswahlen zu treffen. Dazu nutzt sie sowohl Methoden der Datenanalyse wie der Bilderkennung. Was für ein Fotobuch gilt, kann man sich zukünftig auch für die Gestaltung von Zeitschriften, Katalogen oder Büchern vorstellen: Die KI übernimmt in einem ersten Schritt die Gestaltung und damit einen wenig kreativen Teil der Seitenaufteilung. Der Gestalter der Zukunft legt Designparameter fest bzw. korrigiert und ändert, was ihm nicht gefällt. Was man am o.g. Beispiel sieht, ist, dass Sprache für die Systemsteuerung immer wichtiger werden wird. Das Verständnis von Bildern und das Erkennen der Sprachbefehle greifen dabei ineinander. Man sieht hier, dass die Effizienz der KI damit zusammenhängt, dass sie Inhalte erkennt. Das sind

  • Motive wie menschliche Gesichter,
  • Objekte,
  • Orte und
  • Zeitangaben.

Damit ist auch an die Datensicherheit ein höherer Anspruch geknüpft, denn die Kombination der Daten lässt wieder tiefe Einblicke ins Privatleben des Auftraggebers zu. CEWE hat dies erkannt und nutzt seine Möglichkeiten auch zur Erhöhung der Datensicherheit.

Abfolge der KI-gesteuerten Prozess-Schritte

Die Künstliche Intelligenz ist beim CEWE-Fotobuch ein System zur Buchgestaltung. Die KI der Zukunft versteht sich allerdings als Gesamtsystem, bei dem einzelne Schritte intelligent ineinander greifen. So spielt initiierend eine Rolle, dass das Foto mit dem Smartphone KI-unterstützt hochwertig aufgenommen und um Informationen angereichert wird. Zeitgemäße KI in Smartphones

  • kann einen intelligenten sich selbst ausrichtenden Blitz nutzen,
  • einen das Motiv nachverfolgenden Autofokus,
  • ergänzt wie in Photoshop fehlende Bildbereiche oder
  • merzt Verwacklungen aus.

Nachgeordnet ist der Fotobuchgestaltung dann ein digitaler Produktionsprozess, der ebenfalls in seiner Effizienzsteigerung von Produktions-KI profitieren wird, etwa wenn es um Farbtreue und die Logistik der Prozesssteuerung insgesamt geht.

Kleine, schnelle Lösung mit „CEWE Pure“

KI-Projekte wie dieses zeigen, dass der Nutzer mit weniger Zeitaufwand ein qualitativ besseres Produkt erhält. Mit der Smartphone-Fotobuch-App „Pure“ von CEWE werden für kleinere überschaubare, schnell zu produzierende Fotobuchprojekte genau 22 Fotos hochgeladen. Innerhalb weniger Minuten ist das 15x15cm-Buch automatisch gestaltet und kann online zur Produktion geschickt werden. Drei Tage später ist es fertig. Gestaltet werden kann am Smartphone und Tablet. In Gänze zum Zuge kommt die KI, wenn man seine Bilder im Cloudbereich des eigenen CEWE-Accounts hochlädt. Dort, im großen Datenbestand, kann die KI ihre Vorteile am besten ausspielen und wird so etwas wie eine intelligente Fotoverwaltungssoftware mit Suchmaschine und Analysetool für Fotografien. Zukünftig wird die KI nicht nur nach Personen oder Objekten suchen können, sondern auch nach Orten, Zeiträumen oder Tagen per Datum, ebenso nach Ereignissen oder Events. Natürlich lassen sich diese unterschiedlichen Dimensionen auch kombinieren.

Fototagebuch als Mix aus gesprochenem Text und Bild

Eine zukünftige Entwicklung wird das sogenannte „Fototagebuch“ sein. Hier spricht man seine Erlebnisse mit Datumsangabe in sein Smartphone, das danach die passenden Abbildungen aussucht. Die gesprochene Audiodatei wird in Text umgewandelt und bei der automatisierten Gestaltung den Bildern zugeordnet. So rundet man für sich ein Event, eine Tour oder eine Party per Fotobuch ab. Künstliche Intelligenz macht die Wege einfacher und kürzer und legt so die Schwelle, ein Fotobuch zu bestellen, deutlich tiefer. Hier sieht man mustergültig, wie man mit neuer Technik neue Märkte erschließt. Zugleich sieht man an diesem Beispiel, dass ein Unternehmen durch den Einsatz von KI als Wettbewerbsvorteil Arbeitsplätze entweder festigen oder neu schaffen kann, weil die KI mittels App den Durchsatz erhöht.

KI-Fallbeispiel 2: Grafik-Software mit Adobe-„Sensei“

Über die intelligenten Funktionen, die Adobes KI „Sensei“ den verschiedenen Softwarepaketen angedeihen lässt, war schon mehrmals in unserer KI-Serie die Rede. Allgemein erleichtert die Künstliche Intelligenz dem Gestalter schwierige Arbeiten. Beispiele sind das Freistellen von menschlichen Frisuren, weil die manuelle Haarfreistellung zeitaufwendig ist, sofern man das Motiv später vor einen farbigen Hintergrund stellen will. Aber auch Standardfunktionen profitieren hier bzw. könnten zukünftig weiter verbessert werden. Dazu zählen zum Beispiel:

  • Vektorisierung von per Hand gezeichneter Illustrationen.
  • Erstellung von Farbverläufen, die sich einer unregelmäßigen Form anpassen sollen.
  • qualitativ hochwertiges Hochrechnen von Fotos, damit deren Datenbestand für die Belichtung ausreicht.
Oben: Die Filter für die Bildersuche in der Bilddatenbank „Adobe Stock“. Es lässt sich unter anderem nach bestimmten Fotoformaten suchen, nach Bildern, die freie Flächen enthalten, auf denen man Texte platzieren könnte oder nach Bildern mit geringer oder großer Tiefenschärfe.

Bilderkennung als wesentliche Funktion

All diese Beispiele sind motivabhängig. Zum Beispiel gibt es manche Formen wie Rundungen oder Ovale, die sich schwer vektorisieren lassen – hier könnte eine sich selbst zunehmend optimierende KI die Ergebnisse verbessern. Auch den Verlust der Abbildungsschärfe beim Hochrechnen könnte die KI ausgleichen, indem sie Schärfe und Bilddetails neu berechnet. Ob beim Freistellen, beim Bildersuchen oder beim Bildbeschnitt – die Gemeinsamkeit all dieser und weiterer Funktionen ist die intelligente Bilderkennung. Eine Besonderheit bei der Bilderkennung ist in Adobe Stock realisiert. Über die sogenannten „Aesthetic Filters“ kann man nach Merkmalen der Fotografie suchen, etwa nach der Art der Schärfentiefe. Der Filter legt zugrunde, in welchem Verhältnis scharfe Bereiche und unscharfer Hintergrund zueinander stehen. Das heißt, wie hoch oder niedrig die Schärfentiefe ist. Alternativ kann man wie in der Google-Bildersuche bereits realisiert ein Bild hochladen und sich von der KI ausgewählt ähnliche Bilder aus Adobe Stock anzeigen lassen. Kriterien der Ähnlichkeiten sind Farbe, Tonwertumfang und Bildaufbau.

Oben: In „Adobe Stock“ lässt sich ein beliebiges Bildmotiv hochladen, das als Referenz für die Bildersuche dient. Die Künstliche Intelligenz sucht dann in Adobe Stock nach ähnlichen Bildern.

KI-Anwendungen in Adobe-Programmen

Adobe hat Schritt für Schritt intelligente Funktionen in seine Programme integriert, die auf Algorithmen und Künstlicher Intelligenz basieren, auch wenn die Ansätze der Künstlichen Intelligenz bisher noch simpel sind. Eine automatische Bildbehandlung wie bei Cewes Fotobuchsoftware hat Adobe bereits in einzelnen Funktionen von Photoshop, Illustrator und InDesign realisiert, etwa wenn Bildausschnitte automatisch bestimmt werden. Man kann davon ausgehen, dass KI auch in Bereichen wie „Datencheck“ und „Datei-Austausch“ über das PDF-Format weitere intelligente Funktionen anbieten wird – und manuell aufwendige Arbeitsschritte werden durch KI-Funktionen ersetzt. Bestehende Funktionen sind:

KI-Funktionen in Photoshop, zum Beispiel:

  • Motiv auswählen: für figürliche Freisteller
  • Inhaltsbasierte Füllung: Hier werden fehlende Bildteile ergänzt. Umgekehrt lassen sich auch Bildelemente entfernen und durch Hintergrundmuster ersetzen.

KI-Funktionen in Illustrator, zum Beispiel:

  • Inhaltsbasierte Freistellung: für Bildzuschnitt
  • Formgitter: für das Verzerren von Grafiken über ein Manipulationsgitter
  • Globale Bearbeitung: Bearbeitung von mehreren Elementen gleichzeitig mit einem Klick, funktioniert wie eine Formatvorlage für Texte.
  • Freihand-Verläufe: differenziertere und realistischere Farbverläufe

KI-Funktionen in InDesign, zum Beispiel:

  • Layout anpassen: Elemente auf der gestalteten Seite richten sich neu nach veränderten Seitenrändern und Spalten aus.
  • Inhaltssensitive Anpassung: Bilder werden intelligent an Bildrahmen angepasst und beschnitten.

Adobe und seine Voraussetzungen für den KI-Einsatz

Adobe ist mit der funktionalen Ausweitung seiner Softwarepalette schon vor Einführung seiner KI einige interessante Schritte gegangen:

  • Programm-Interaktion: Adobe hat es ermöglicht, Files unterschiedlicher Dateitypen zwischen den einzelnen Gestaltungs-Programmen hin- und her zu kopieren, wodurch der Datenaustausch vereinfacht wurde. Etwa zwischen Adobe Photoshop und Adobe Illustrator.
  • Adobe Bridge: Damit lassen sich Dateiversionen zwischen Adobe-Programmen managen.
  • Behance: Adobe hat 2012 das 2005 gegründete Netzwerk „Behance“ übernommen, eine Onlineplattform, auf der Designer ihre Arbeiten vorstellen und sich darüber austauschen. Interessant ist, dass man aus Programmen wie Photoshop oder Illustrator seine Arbeiten direkt in Behance speichern und damit im Web und in Social Media veröffentlichen kann.
  • Creative Cloud: Gleichzeitig kann man die eigenen Files in Adobes Creative Cloud speichern, von wo aus man sie Kollegen oder Kunden zugänglich machen kann. Sie sind mit allen Ebenen für Creative-Cloud-Mitglieder dort zu begutachten und kommentierbar, wobei man den Kommentar eingeschränkt für Personen freigeben kann oder öffentlich, sodass er auch auf Behance erscheint. Wer den Link zum Werk per Mail bekommt, braucht nicht Creative-Cloud-Mitglied sein. Mitarbeiter oder Kollegen können in den Dateien kollaborativ zusammenarbeiten.
  • Fotolia, Adobe Stock und Adobe Schriften: Direkt aus der Anwendung heraus lassen sich Bilder aus „Adobe Stock“ oder von „Fotolia“ suchen und importieren. Fotolia ist eine 2004 gegründete Bilddatenbank, die 2015 von Adobe übernommen wurde. Ebenso lassen sich aus Anwendungen heraus Adobe-Schriften suchen.

Durch diese Ebenen der Verknüpfung und Vernetzung hat Adobe bezogen auf Dateien ein System geschaffen, das auf Zusammenarbeit und Austausch angelegt ist. Eine KI, die zukünftig hierauf aufsetzt, kann diese Vorteile nutzen und innerhalb des Anwenderprogrammes immer zielgerichteter Bilder und Schriften vorschlagen, auf Behance ähnliche Gestaltungsansätze suchen und die Zusammenarbeit weiter intelligent durchlässig für Austausch und Kooperation machen.

Wer wird Künstliche Intelligenz anbieten?

Dabei ist einen Gedanken wert, welche Unternehmen sich eigentlich KI leisten können. Zur Zeit stellt Adobe die KI „Sensei“ seiner Softwarepalette heraus, nutzt ihre Möglichkeiten aber nicht nur im Gestaltungsbereich sondern bietet auch Dienstleistungen für externe Kunden vor allem im Datenanalyse- und Marketingbereich an. Werden sich kleinere Softwarehersteller auch KI-Technologie leisten können und wird es so einen gesunden Wettbewerb geben? Oder baut Adobe seinen Vorsprung aus? Im Moment ist zu beobachten, dass große KI-Unternehmen wie IBM ihre Software anderen Unternehmen als Dienstleister anbieten. Adobe könnte Auftragnehmer andere Softwarehäuser werden oder seinen Wettbewerbsvorteil bei der Grafiksoftware in der Alleinstellung suchen. Wird die Künstliche Intelligenz zukünftig den Wettbewerb verstärken oder wird der Markt der Grafiksoftware sich aufspalten in Software mit und Software ohne KI, weil sich kleinere Anbieter KI nicht leisten können? Was wird mit Public-Domain-Software-Projekten wie der Photoshop-Alternative „Gimp“ oder der Vektorsoftware „Inkscape“ geschehen?

Fazit: Die schnelle KI
Wenn man bedenkt, dass die Künstliche Intelligenz im Sinne der Selbstoptimierung und Selbstprogrammierung für den Grafiksoftware-Anwender noch gar nicht richtig Fahrt aufgenommen hat, sind die bisherigen Funktionen schon vielversprechend. CEWE geht einen Weg funktionaler Einfachheit, Adobe ergänzt nach und nach einzelne Funktionen in mächtigen Werkzeugen wie Photoshop oder Illustrator. Experten sagen, dass sich bezogen auf einzelne Anwendungen in ein paar Jahren viel tun kann. In dieser Zeit ist nicht mit einem komplexen KI-System zu rechnen aber die Software bis zur Mitte des nächsten Jahrzehnts wird für den Grafik- und Mediendesigner vieles vereinfachen und so hochwertige Design-Ergebnisse schneller möglich machen.

Ralf Wasselowski
Unser Gastautor: Ralf Wasselowski. Er betreibt die Agentur Conceptbüro in Essen und ist ein Kenner der Design-, Grafik- und Werbebranche. ©Ralf Wasselowski
21
Mai
2019
Künstliche Intelligenz

Die Zukunft der Künstlichen Intelligenz im Mediendesign

Im ersten Teil unserer Serie über Künstliche Intelligenz (KI) ging es um eine Beschreibung und Kategorisierung. Der zweite Teil zeigte konkrete Anwendungen. Der dritte Teil behandelte die Bereiche, in denen KI wichtig werden wird. Im vierten Teil geht es nun um eine Zukunftsvision: Wie wird die KI von morgen die heutige Arbeit des Mediendesigners verändern?

Liest und hört man verschiedene Meinungen zum Thema KI, wird klar, wie entscheidend das Thema „Künstliche Intelligenz“ sein wird. Es ist nicht eines von vielen Themen, die sich mit Veränderungen befassen, es ist wohl das Thema. Wie kaum eine andere Technologie kann die KI die Gesellschaft verändern und damit nicht nur die Arbeit, sondern auch das Leben. Ein Thema ist „KI als Rationalisierungsfaktor“. Es wird prognostiziert, dass viele regelbasierte Dienstleistungsberufe wie Rechtsanwälte, Steuerberater, Diagnostiker im Medizinbereich oder auch Gestalter in wesentlichen Teilen durch die KI ersetzt werden könnten. Damit geht entweder eine hohe Arbeitslosigkeit einher oder ein verändertes Gesellschaftsmodell, bei dem das Nicht-Arbeiten oder Weniger-Arbeiten kein Makel ist, sondern eine veränderte gesellschaftliche Grundbedingung. Es liegt auf der Hand, dass eine solche Zukunftsprognose nicht nur die Arbeit verändert, sondern auch die Gesellschaft und das Leben insgesamt.

Zukunft der Künstlichen Intelligenz
Oben: Die Zukunft der Künstlichen Intelligenz hat auch im Medien-Design begonnen. Wann sie sich auswirkt, bleibt offen.

Vor- und Nachteile der Künstlichen Intelligenz

Da das Thema KI so grundlegend ist, ist es in der Argumentation auch kontrastreich belegt: Auf der einen Seite die Möglichkeiten, auf der anderen Seite Bedrohung und Ängste. Dass Visionen, in denen menschliche Arbeitskraft ins Hintertreffen geraten kann, nicht aus der Luft gegriffen sind, zeigt sich an dem Umstand, wie sehr die KI in Spezialbereichen überlegen ist: etwa bereits beim Schach- oder Go-Spielen. Inzwischen gelten diese Spiel-KIs als vom Menschen nicht mehr besiegbar. Es zeigt sich in der Diskussion also ein großes Spannungsfeld. Dies besteht aus zwei Polaritäten:

  • Einerseits aus dem Nutzen neuer Möglichkeiten, zum Beispiel in Form phantastischer Rechengeschwindigkeiten, mit denen Aufgaben erfüllt werden könnten.
  • Andererseits aus der Gefahr, entbehrlich zu sein.

Der Setzer oder Gestalter muss sich inzwischen selbstkritisch die Frage stellen, wie originell und kreativ seine Arbeiten sind. Man kann im Medien-Design drei Marktbereiche unterscheiden:

Kreativ-Gestaltung

Eine wenig vorhersehbare Design-Linie, die neue Ideen realisiert und auf der Höhe der Zeit agiert. Hier geht es weniger um das Einhalten von Gestaltungsregeln oder um Systematik, sondern um die Realisierung einer besonderen Idee. Der Designer fungiert hier als Ideengenerator und Trendsetter.

Systematische Gestaltung

Überall dort, wo Gestaltungssysteme wie Corporate Designs oder etwa bei der Buch- oder Broschürengestaltung Gestaltungsraster zum Einsatz kommen, geht es um eine rationale Auffassung von Design. Zentral ist das Gestalten, Einsetzen und Ausführen von Gestaltungsgesetzen und -regeln. Der Designer fungiert hier auch als Design-Manager.

Standard-Gestaltung

Kann man davon ausgehen, dass im Kreativ-Design und im System-Design Professionalität und Besonderheit gefragt sind, gibt es einen dritten Bereich, in dem das nicht ausgeprägt der Fall ist. Es gibt viele Drucksachen, die lediglich ein Mindestmaß an Gestaltung erfüllen sollen, die öfter auch nicht von Designern gestaltet werden, sondern von Gestaltungs-Laien. Man kann davon ausgehen, dass über den reinen Laienbereich oder die Gelegenheitsgestaltung hinaus auch viele professionell gestaltete Drucksachen nicht explizit kreativ gestaltet sind. Es gibt darüber hinaus einen riesigen Markt für nach einem festen Erscheinungsbild gestaltete Drucksachen. Dieser Markt nutzt seit einigen Jahren auch Templates als Gestaltungsvorlagen. Im Web-Design sind Design-Baukästen wie „Joomla“ oder „Wix“ längst etabliert. Hier gestaltet man nicht frei von Grund auf, sondern man geht von Gestaltungsvorgaben aus, die modifizierbar sind. Ein beträchtlicher Teil der grundsätzlichen Arbeit wird bei diesem Beispiel also schon vom System erledigt. Im Drucksachenbereich haben sich solche Onlinebaukästen noch nicht stark durchgesetzt. Es gibt sie als Spezialanwendungen etwa für die Gestaltung von Visitenkarten oder in Form von „Canva“, eines Baukastens, mit dem man Drucksachen online gestalten kann. Auch Druckereien bieten Musterdateien mit angelegten Satzspiegeln und Hilfslinien an.

Die automatisierte Gestaltung

Man sieht an diesem Überblick, dass Gestaltung im Zeitalter des Computers schon lange nicht mehr mit „Neuerfindung“ jeden Designs gleichzusetzen ist. Den Teil des arbeitsintensiven Grundkonzeptes kann man nämlich nicht nur als Template oder Baukasten einkaufen, wenn man möchte. Seit Jahrzehnten nutzen Verlage auch Systeme wie „QPS“, das „Quark Publishing System“ als Redaktionssystem für die Layoutsoftware Quark-X-Press, oder „InCopy“ im Zusammenspiel mit Adobes InDesign. In solchen Redaktionssystemen sind verschiedene Schritte automatisiert, es wird mit Musterseiten standardisierter Layouts gearbeitet. Ein anderer tradierter Bereich sind Softwaresysteme, die Produkte und Produkttexte für die Katalogproduktion automatisiert aus Datenbanken wie zum Beispiel Warenwirtschaftssystemen übernehmen. Man sieht an diesen Konzepten, dass der Gedanke der Automatisierung von Gestaltung nicht neu ist. Mit dem Einsatz Künstlicher Intelligenz wird er aber einen Schub bekommen. Für den Designer hat die automatisierte Gestaltung zwei Seiten:

Die KI als Konkurrent

Zum einen könnten hochgradig strukturierte Drucksachen, vor allem einfach standardisierte und gut systematisierbare Gestaltungskonzepte schwerpunktmäßig durch KIs ausgeführt werden. Das gilt übrigens nicht nur als qualitative Kategorie, sondern auch quantitativ: Je umfangreicher ein Werk, desto mehr kann die KI ihre Schnelligkeitsvorteile ausspielen. Wo ein Setzer oder Gestalter zum Beispiel Tage dafür benötigen würde, 250 Bilder und die entsprechenden Fließtexte, Überschriften und Bildunterschriften in einem ersten Schritt auf 400 Buchseiten aufzuteilen, könnte das die KI vielleicht in 5 Minuten – mit Fußnoten, einem automatisiert angelegten Inhaltsverzeichnis, Glossar und Personenregister. Ihr wären alle Standardgestaltungs-Varianten eingespeichert: ein-, zwei- und dreispaltige Seitenlayouts, verschiedene Varianten der Seitenstege und Satzspiel, gebräuchliche Schriftkombinationen, Parameter für optimale Lesbarkeit, Bildgrößen und Proportionsverhältnisse. Die KI könnte automatisch bei der Seitengestaltung wie auch beim Bildbeschnitt den Goldenen Schnitt anwenden oder jedes beliebige Gestaltungsgesetz anwenden. All das ist nur eine Frage dessen, was man ihr für Grunddatenbestände zuführt.

Nach den Gesetzen des Marktes, bei dem sich langfristig Nutzenaspekte gekoppelt mit Rationalisierung durchsetzen, wird diese Vision wohl tendenziell Wirklichkeit werden. Es gibt aber auch eine andere Sichtweise.

Die KI als Möglichkeit

Diese Sichtweise setzt den Schwerpunkt der Arbeitserleichterung, bei der die Künstliche Intelligenz ein Instrument des Menschen sein kann. Die KI ist gut bei der Standard- und Durchschnittsgestaltung, also beim Mittelmaß. Überall dort, wo es nicht um den großen Designentwurf geht. Sie nimmt dabei zweifelsfrei dem Menschen viele lästige Arbeiten ab. Sie beschleunigt vieles, das unnötig Zeit kostet und eigentlich nichts mit ambitioniertem Design zu tun hat. Und es ist nicht gesagt, dass die KI letztlich nicht doch ein Instrument in den Händen des Designers ist, der sie für sich arbeiten lässt. Ein Blick in die Geschichte zeigt die Tendenz:

  • Bleisatz und Buchdruck: Man mag das Bild des ursprünglichen Schriftsetzers bemühen, der ganze Zeitungsseiten Buchstabe für Buchstabe aus Bleilettern gesetzt hat. Er sah sein Ende durch den Fotosatz kommen, bei dem die Schrift plötzlich an Spezialsystemen eingetippt und ausbelichtet wurde.
  • Fotosatz: Der Fotosetzer seinerseits musste sein Ende mit ansehen, als die Computerisierung und Digitalisierung Einzug hielten. Satz und Gestaltung wurden nun etwas, das jeder sogar von zuhause aus erstellen konnte.
  • Desktop-Publishing: Der nächste Schritt ist begeisternd: Musste der Mensch bisher selbst Hand anlegen, hätte er in Form der KI einen hilfreichen Assistenten, der seine Arbeit beschleunigt. Designer werden hier vor allem auch gebraucht, um Gestaltungskonzepte und Bildwelten zu entwerfen, die sich an Zeitströmungen orientieren.

Allerdings ist nicht davon auszugehen, dass zukünftig bei jeder Gestaltung oder jeder Druckvorlage noch die Gestalter-Hand im Spiel ist. Der Markt wird sich vermutlich aufteilen in KI-Dienstleistungen, die auch jeder Laie einkaufen könnte, und individuellere Lösungen – vor allem aber tatsächliche Kreativ-Lösungen. Es kann sein, dass dieser Bereich der visuellen Ideenentwicklung durch den Menschen sogar aufgewertet wird. Es ist aber abzusehen, dass der KI-gestützte Designprozess quantitativ dominierend sein könnte.

KI in der Gegenwart

Wenn man über die Zukunft der KI im Mediendesign spricht, stellt sich die Frage, wo die KI im Mediendesign aktuell steht. Wie in Folge 2 und 3 unserer Serie beschrieben, sind in Programmen wie Photoshop, InDesign oder Adobe Illustrator bereits einzelne KI-Funktionen enthalten, etwa wenn es um Freisteller, Bildausschnitte oder intelligentes Manipulieren und Verbiegen von Illustrationen geht. Dabei geht es bisher um mehr Intelligenz in funktionalen Bereichen. In Folge 1 unserer Serie haben wir aber gesehen, dass die hier gerade genannten Beispiele von manchem Experten noch gar nicht als Künstliche Intelligenz im eigentlichen Sinne betrachtet werden. Die käme nämlich erst dann richtig zum Tragen, wenn das System selbst lernt und sich optimiert. Seit Jahren kennen wir diesen Optimierungsansatz aus der Handschriften- oder Spracherkennung der Sprachassistenten. Die Gegenwart der KI in der Gestaltungssoftware ist noch rudimentär, gewährt aber einen Ausblick darauf, wie es weitergehen kann und wohl auch wird. All das, was sich Designer seit Jahrzehnten wünschen – mehr Komfort, mehr Intelligenz und Vereinfachung der Arbeitsschritte in der Anwendersoftware – scheint nun endlich wahr zu werden.

Wie ändert sich die Design- und Produktionszukunft durch KI?

Die Frage rund um die Künstliche Intelligenz in der Fachwelt ist nicht, ob sie kommt und eingesetzt wird, sondern wann das der Fall sein wird. Denn darüber gehen die Meinungen stark auseinander. Am Beispiel des selbstfahrenden Autos und seiner Entwicklungszeit sieht man, dass der überwiegende Teil aller Funktionalitäten, die das Selbstfahren gewährleisten, relativ schnell zu entwickeln ist. Die letzten paar Prozent allerdings, die im Autobereich die Sicherheit gewährleisten, sind äußerst schwer erreichbar. Es kann sein, dass das flächendeckend ohne Menschenhand selbstfahrende Auto deshalb noch einige Jahre Entwicklungszeit braucht. Die Selbstfahrebenen unterhalb der völligen Autonomie sind aber bereits realisiert. Einfache KIs können also Stück für Stück Teilaufgaben in vorhandenen Programmen übernehmen. Andere Anwendungen der KI können auch schon in den nächsten Jahren zu völlig neuen Programmen oder Dienstleistungen führen.

Arbeitsschritte im Design-Prozess

Sieht man sich den Ablauf bei der Gestaltung einer Drucksache an, ergibt sich beispielsweise folgendes Bild in einzelnen Teilschritten. Zu beachten ist, dass es relativ viele Schritte auch bei einfachen Projekten gibt, dass aber die meisten mit Abstimmung, Kundenkommunikation, mit Umsetzung und Produktion zu tun haben.

  1. Anfrage des Kunden
  2. Druckparameter: Papierart, Grammatur, Auflage, Besonderheiten für Konfektionierung; Veredelung und Weiterverarbeitung
  3. Kostenvoranschlag des Designers
  4. Auftragserteilung durch Kunden
  5. Entwurf
  6. Kundenkontakt: Präsentation beim Kunden
  7. Satz/Reinlayout
  8. Kundenkontakt: Abstimmung mit dem Kunden
  9. Reinzeichnung und Belichtungsdatei
  10. End-Freigabe durch Kunden
  11. Übermittlung an Druckerei
  12. Druckvorstufe: Datenkontrolle, Datenoptimierung, Belichtung der Druckplatten
  13. Druck
  14. Ggf. Veredelung und Konfektionierung
  15. Auslieferung

Von 15 typischen Arbeitsschritten, die sich zwischen

  • Kundenkontakt
  • Kalkulation
  • Kreation
  • Reinzeichnung und
  • Produktion

bewegen, ist nur einer wirklich kreativ: die Kreation. Was ist Kreation? Sie schliesst den Kreativ-Entwurf mit ein, der eine wirklich neue Idee sein kann oder auch eine Bildwelt, für die Fotos oder Illustrationen angefertigt werden müssen. Er kann aber auch „unkreativ“ sein, Stockfotos oder -Illustrationen enthalten und ein Standardlayout ohne besondere Veredelungen realisieren. In der großen Vielfalt der Drucksachen gibt es einige typische Drucksachenarten, zum Beispiel:

  1. Standard-Drucksachenart „Faltblatt“: Sehr viele Flyer, Faltblätter und Kleindrucksachen sind informationelle Kommunikationsinstrumente, die funktional gestaltet werden und schnell produziert werden müssen. Die Gestaltungsgrundlagen für solche Kleindrucksachen sind gut standardisierbar, weil sie typische Eigenschaften haben.
  • Standard-Drucksachenart „Verkaufsprospekt“: Dann gibt es Verkaufsprospekte, etwa als Beilagen zu Tageszeitungen, die zahlreiche Abbildungen enthalten. Auftraggeber sind etwa Möbelhäuser oder Supermärkte. Diese Prospekte sind höchst anspruchsvoll bezüglich der Logistik ihrer Erstellung. Die jeweilige Agentur gestaltet parallel meist eine ganze Reihe solcher Prospekte. Dafür müssen Bilddatenbanken angelegt werden, Texte und Preise den Bildern eindeutig zugeordnet werden, damit die Übersicht nicht verloren geht. Dafür wäre das Datenbankpublishing ideal, bei dem entweder der Kunde Daten in ein strukturierendes System einpflegt und aktualisieren kann oder die Agentur permanent Zugriff auf die Datenbank des Kunden und somit immer die aktuellen Last-Minute-Preise zur Verfügung hat.
  • Standard-Drucksachenart „Katalog“: Eine letzte Gruppe von Drucksachen sind seitenstarke, umfangreiche Broschüren oder Kataloge. Bei diesen wird zum einen das Layout nach einem Gestaltungsraster gestaltet, bei dem Bildgrößen und Bildpositionen und über Zeilenraster Schriftpositionen festgelegt werden können. Die Gestaltung wird so systematisiert. Auch hier kann Datenbankpublishing platzierbare Elemente in eine Ordnung bringen und für Last-Minute-Aktualisierungen im langwierigen Gestaltungsprozess sorgen.

Design-Systematisierung als Vorstufe zur KI

Das kleine Faltblatt, der elementintensive Angebotsprospekt oder der dicke Katalog – das sind sehr unterschiedliche Drucksachen mit einer Gemeinsamkeit: sie lassen sich gut standardisieren. Die Abläufe für ihre Erstellung lassen sich gut in eine Ordnung oder Systematik bringen. Heute kann man solche Abläufe über den Einsatz von Templates oder Database-Publishing beschleunigen, vereinfachen und in großen Teilen der Technik überlassen. Zukünftig kann jede Design-Systematisierung durch die KI effizienter gestaltet und beschleunigt werden. Microsoft baut seine Powerpoint-Präsentationssoftware zum Gestaltungsgenerator um. Die KI erhält betriebswirtschaftliche Daten und lässt PowerPoint automatisiert Charts, Tabellen, Übersichten und Infografiken gestalten. Dieses Prinzip, Daten von einer KI aufbereiten zu lassen, hat Zukunft.

Fazit: Alleinstellung als Ziel

  • Verortung im Markt: Im Marketing geht es immer um die besondere Positionierung, im besten Fall um eine Alleinstellung. Ambitionierte Designer, die Ideen haben, werden deshalb auch zukünftig einen Markt für ihre Kreationen finden. Durchschnittsgestaltung und strukturiertes Design werden von der KI gestaltet werden. Es kann sogar sein, dass die Parametrisierung, das heisst das Füttern der KI mit Gestaltungsregeln zu hochwertigeren Ergebnissen führen wird. Schwierig für die KI wird es, wenn es kreativ und außergewöhnlich werden soll, da sie bezüglich ihrer kognitiven Fähigkeiten beschränkt ist. Zwischen Wahrnehmung, künstlichem „Denken“ und der Einordnung bezüglich der Rezeption durch den Menschen, wird der Mensch der KI noch lange überlegen sein. Dabei ist diese menschliche Eigenschaft der Beurteilung der Wirkung von Design um so relevanter, je kreativer die Gestaltung ist.
  • Alleinstellung als Zukunftssicherung: Die Befürchtung, dass Künstliche Intelligenz eines Tages die meisten Menschen arbeitslos machen wird, hat Sprengkraft. Für den einzelnen Designer ist jedoch die Fokussierung auf Alleinstellungsmerkmale wichtig. Je unverwechselbarer die Dienstleistung, desto schwerer ist sie ersetzbar, je gleichförmiger das Design, desto sicherer kann eine KI es besser und schneller gestalten.
  • Verändertes Berufsbild: Bis jedoch die Künstliche Intelligenz eines Tages perfektioniert ist, wird es eine großen Bedarf an Designern geben, die die KI bedienen, die Designkonzepte kreieren, sie beaufsichtigen und korrigieren. Wann die KI Arbeitsplätze im großen Stil ersetzen kann, ist unbekannt. Befürworter ignorieren das Faktum, dass es noch nie eine Technologie gab, die so umfassend menschliche Leistungsfähigkeit Stück für Stück ersetzen konnte. Sie argumentieren, dass eine neue flächendeckende Technologie auch eine Fülle neuer Arbeitsplätze schaffen wird. Dies werden aber vor allem hoch qualifizierte Arbeitsplätze sein, während das Gros der Mengen-Arbeiten vermutlich von der KI erledigt wird.
Infografik zur Zukunft der KI im Medien-Design
Ralf Wasselowski
Unser Gastautor: Ralf Wasselowski. Er betreibt die Agentur Conceptbüro in Essen und ist ein Kenner der Design-, Grafik- und Werbebranche. ©Ralf Wasselowski
6
Mai
2019
Künstliche Intelligenz

Die Anwendungsbereiche der Künstlichen Intelligenz im Mediendesign

Im ersten Teil unserer Serie über Künstliche Intelligenz (KI) ging es um eine allgemeine Einführung. Der zweite Teil handelte davon, wo konkret KI in Software bereits Anwendung findet. Teil 3 thematisiert nun, welches die Bereiche sind, in denen die Künstliche Intelligenz  ihre besonderen Vorteile ausspielt bzw. ausspielen könnte.

Verbesserte Funktionen: Beispiel Vektorisierung

Viele Designer haben für ihre Gestaltungs-Software eine Wunschliste, die sich meist auf die Verbesserung von Funktionen bezieht. So war bereits die Rede von der zentralen Funktion „Bilderkennung“ bei der Bildersuche oder von der Verbesserung von Freistellern. Andere Funktionen wie zum Beispiel die weitere Qualitätsverbesserung der Umwandlung von Pixelgrafiken in Vektorgrafiken könnten auf so einer Liste stehen. Denn während etwa einfache Illustrationen wie Cartoons sehr gut vektorisierbar sind, hapert es bei der Pixel-Schrift-Vektorisierung. Hier werden vor allem Rundungen nicht exakt vektorisiert bzw. der Aufwand für die Voreinstellungen pro Buchstabe ist hoch und damit zeitraubend. Wer also zukünftig einen Schriftzug, der ihm nur als Pixelgrafik vorliegt, verwenden will, könnte sich über die Bilderkennungs-Kompetenz der KI freuen, die Buchstaben besser erkennt – was zu einem hochwertigeren Vektorisierungsergebnis führen könnte.

Künstliche Intelligenz dient der Bilderkennung
Oben: Ob bei der Bilderkennung, dem Datencheck oder dem Schrifterkennen – die Künstliche Intelligenz denkt mit.

Überblick über mögliche KI-Bereiche im Medien-Design

Tritt man einen Schritt zurück, kann man sehen, in welchen Bereichen KI zukünftig den Designer/die Designerin entlasten könnte:

  • Bilderkennung: Verbesserte Fähigkeiten der Bilderkennung beschleunigen die Motivsuche in Bilddatenbanken. Die Software kann proaktiv Bildvorschläge machen. Das bezieht sich im Gestaltungsprozess nicht nur auf die Motivsuche, sondern auch auf den Bildausschnitt oder die Farbwelt des Bildes.
  • Bildfilterung: Seiten wie Deep Dream oder viele Apps auf mobilen Geräten filtern Bilder, um eine bestimmte Stimmung zu erreichen, einen Effekt oder ein künstlerisches Ergebnis.
  • Bildkreation: Inzwischen malen Künstliche Intelligenzen auch. Man wählt etwa einen Stil, den die Software gelernt hat, gibt einen Bildinhalt vor, und fertig könnte zukünftig auch die kreative Illustration oder der einfache Cartoon sein.
  • Druckdaten-Analysetools: Für den Produktionsprozess und seine Qualitäts-Sicherung ist der Daten-Check von zentraler Bedeutung. Er kann durch die KI optimiert werden.
  • Automatisierungstools: So wie Freisteller oder Vektorisierungen in guter Qualität automatisch ablaufen, so gibt es in vielen Bereichen des Gestaltens Aufgaben, in denen die KI Schritte beschleunigen könnte. Etwa: Automatische Platzierung des gesamten Gestaltungsmaterials für einen Erstentwurf, Vorschläge für geeignete Schriftkombinationen, alternative Vorschläge für einspaltiges oder mehrspaltiges Layout.
  • Kollaboratives Arbeiten: Das Arbeiten von mehreren Personen oder Gruppen an umfangreichen Drucksachen ist nichts Neues mehr. Intelligente Software managt jetzt schon Zugriffsrechte oder Gestaltungsversionen und sorgt in einem komplexen Prozess dafür, dass nicht das Chaos Einzug hält. Die KI könnte zum Beispiel den Versionsabgleich weiter vereinfachen und reibungsloser gestalten, damit das gemeinsame Arbeiten noch mehr Spaß macht.
  • (Cloud-)Daten-Synchronisierung: Vom Bereich „Kollaboratives Arbeiten“ ist es nicht weit zum Bereich „Cloud“. Das Arbeiten im virtuellen Raum, ob alleine oder in der Gruppe, ist heute nicht mehr wegzudenken. Wo, wann und wie welche Daten zur Verfügung stehen, ist oft entscheidend. Eine KI, die mitdenkt, könnte aktiv ständig alles in die Cloud bringen, das zum Arbeiten benötigt wird. Sie könnte dabei z.B. auch an Kompatibilitäten denken, damit man unterwegs auch mit Smartphone, Phablet oder Tablet am Entwurf weiterarbeiten kann.
  • Designprozess: Der wichtigste Bereich für das Design ist der Designprozess. Hier geht es um Eigenschaften wie Schnelligkeit, Qualität oder Daten-Verfügbarkeiten. Effizienz ist das Stichwort. Was macht den Design-Prozess aus?

Künstliche Intelligenz im Design-Prozess

Eine funktionale Qualitätsverbesserung der KI wie bei der beschriebenen Vektorisierung würde sich auf den Bereich „Design-Prozess“ beziehen. Denn der würde schneller vonstatten gehen, wenn man weniger oder nicht mehr manuell nacharbeiten müsste. KI-gesteuerte Funktionalitäten erhöhen die Effizienz des Design-Prozesses. Eine Software, die quasi mitdenkt, erleichtert Arbeiten. Aber nicht nur das. Der Design-Prozess wird maßgeblich durch die Benutzerschnittstelle beeinflusst. Ob der/die Designer/in mit Maus oder Stift Funktionen in Menüs auswählt oder man die Software über Sprachbefehle steuert, ist ein erheblicher Unterschied. Er bezieht sich auf den Bereich „Kommunikation oder Interaktion mit der Software“. Wenn man mit der Software sprechen könnte und in einen Dialog mit ihr tritt, könnte das vieles vereinfachen. Eigentlich aber ist das Wesentliche bei der Künstlichen Intelligenz, dass sie fortwährend lernen kann. Mit welchen Daten aus welchen Bereichen könnte man sie „füttern“?

Mit welchen Daten lässt sich KI optimieren?

Im Moment ist ein KI-System so gut wie die Daten, die man ihm zuführt. Anreichern kann man ein KI-System mit unterschiedlichsten Daten. Mit diesen kann sich die Software weiter optimieren und wird in Bezug auf die Aufgabenstellung immer intelligenter. Ein paar Beispiele:

  • Schach: Man füttert die KI mit den bekannten Spielzügen und Spielabläufen.
  • Freisteller: Es war in den vorherigen Artikeln schon die Rede davon, dass man eine Bildverarbeitung wie Photoshop oder Gimp aus den Arbeiten der Community lernen lassen könnte, etwa aus den automatischen Freistellern, die eine Software erzeugt hat und inwiefern der Mensch nachbessern musste, um die Qualität zu verbessern. Die Ergebnisse könnte die KI analysieren und in ihre Selbstoptimierung einfließen lassen.
  • Übersetzung, Web-Suche oder Bildsuche: Man füttert die KI mit einem vollständigen Wortschatz und seinen semantischen Bedeutungs-Ebenen, also mit Mehrfachinhalten, Doppeldeutigkeiten oder Slangabwandlungen. Die Königsdisziplin sind hier Sinnzusammenhänge, zum Beispiel über Wortkopplungen. „Schimmel“ wird im Zusammenhang mit „Tieren“, „Natur“ oder „Reiten“ ein Pferd bezeichnen, im Zusammenhang mit „häuslichem Umfeld“ und „Lebensmitteln“ wird der Schimmelpilz gemeint sein.

Spracherkennung in der Kommunikation

Ein der Übersetzung naheliegender Bereich ist die Spracherkennung. Der Designer der Zukunft wird vermutlich über Audiobefehle oder Audiodialoge schneller mit der Gestaltungssoftware interagieren. Dafür muss sie ihn immer besser verstehen. Es ist denkbar, dass Sprachmuster, individuelle Kurzanweisungen oder Fachbegriffe für Arbeitsbereiche in portierbaren Audiosystemen gespeichert werden, die die Interaktion zwischen z.B. Photoshop und dem Designer, Illustrator oder Fotografen abbilden. Dafür muss das System möglichst viele Sprachmuster unterschiedlichster Anwender lernen, indem es mit Worten gefüttert wird und aus Dialogen lernt.

Bilder, Motive und Bilderkennung

Anhand der Gesichtserkennung bei Smartphones sieht man, wie gut die Software schon darin ist, menschliche Gesichter zu erkennen. Füttert man sie zur Optimierung ihrer Bilderkennung mit den Gegenständen und Produkten der Welt, wird sie in der Lage sein, auf einem Bild etwa eine Jeans von einer Stoffhose oder einer Leggings zu unterscheiden.

Gestaltungsparameter und ihre Systematisierung

Jeder Gestalter hat seine Vorlieben: Bestimmte Schriften oder Schriftkombinationen, Satzarten, Zeilenabstände, die Arbeit mit Weißräumen oder bestimmte Proportionen. Ein Gestalter hat dies verinnerlicht und oft wendet er seine Designvorlieben intuitiv an. Doch tatsächlich verbirgt sich dahinter ein gut abbildbares Regelwerk. Das gilt nicht für jede Gestaltung, schon gar nicht für eine sehr kreative oder freie Gestaltung. Aber vor allem all das, was streng über Gestaltungsvorgaben reglementiert ist, profitiert von einer Gestaltungssoftware, die all diese Regeln kennt. Man muss sie nur allgemein mit Regelwerken wie Proportionsgesetzen und dem jeweiligen Corporate Design füttern – und schon könnte die KI Vorschläge machen oder Hinweise geben, wo etwas nicht konform ist. Das könnte gerade dem Gelegenheitsanwender oder Laien beträchtlich weiterhelfen. Zumal die intelligente Software auch beginnen könnte, in Form von Vorschlägen selbst zu gestalten.

Kreativität und Künstliche Intelligenz

Ideenfindung ist die angestammte Domäne des Menschen. Es ist kaum vorstellbar, dass Software im menschlichen Sinne kreativ sein kann. Und doch lassen Wissenschaftler diese umstrittene Frage noch offen. Denn es wird die Frage der Zukunft sein, ob sich ein technisches Bewusstsein bilden kann. Falls ja, wäre theoretisch auch Kreativität denkbar. Kreativität ist ein Verfahren der Kombinatorik: Man nimmt Reize auf und kombiniert sie zu etwas Neuem. Tatsächlich setzen sich viele Designtrends aus Versatzstücken verschiedener Gestaltungsauffassungen zusammen. So wäre Kreativität ein Informationsmix mit neuem Schwerpunkt. Zwar deckt diese Beschreibung Kreativität nicht vollständig ab, weil sich jede relevante Idee aus einem sozio-kulturellen Umfeld ergibt. Diesen kulturellen Rahmen hat eine Künstliche Intelligenz aber nicht. An den Möglichkeiten des Malens einer KI zeigt sich zweierlei:

  • 1. Die KI kann mit einem Mal- oder Illustrationsstil etwa von Rembrandt gefüttert werden und dann wie er malen oder zeichnen.
  • Sie ist damit aber 2. Nicht kreativ sondern repetitiv. Das heißt: Sie wiederholt nur eine gelernte Stilistik.

Dennoch wird man zukünftig die KI in Kreativfelder eindringen sehen. Sie wird Gedichte und Texte schreiben, Bilder malen aber auch illustrieren oder Cartoons zeichnen können. Aber wird sie auch Ideen haben? Eine Antwort darauf steht noch aus.

Infografik zu "Anwendungsgebiete Künstlicher Intelligenz"
Ralf Wasselowski
Unser Gastautor: Ralf Wasselowski. Er betreibt die Agentur Conceptbüro in Essen und ist ein Kenner der Design-, Grafik- und Werbebranche. ©Ralf Wasselowski
18
April
2019
Künstliche Intelligenz

Kluge Gestaltungssoftware für Designer

In Teil 1 unserer Reihe zur Künstlichen Intelligenz (KI) für Designer/innen und Medienschaffende ging es um den Rahmen von KI: Was sie ausmacht, welches Konzept hinter ihr steht und welche Arten von KI es gibt. Im 2. Teil geht es um die konkreten neuen Funktionen in der Gestaltungssoftware.

Künstliche Intelligenz: Was ist jetzt schon möglich?

KI kann bereits einige eng umrissene Aufgaben übernehmen. So wird etwa von Google getestet, dass die KI als Sprachassistent im Restaurant einen Tisch reserviert. Per Audio- oder Text-Chat beantwortet sie schon längst Fragen auf Webseiten. Die kleinen Helferlein, die dort eingesetzt werden, nennen sich Chatbots. Sie wurden mit einem Fundus möglicher Fragen und Antworten gefüttert, mit einem Wortschatz und dem Wissen über menschliche Interaktion im Kommunikationsprozess. Außerdem mit kommunikativen Verhaltensregeln. Dies wäre so ähnlich auch für die Interaktion mit einem Grafik-Programm vorstellbar: Der Designer sagt dem Programm, was es tun soll und agiert mit ihm über Sprache. Erste Versuche über Amazons Alexa und die Anbindung an eine Software laufen bereits.

Längst enthält auch Gestaltungssoftware als KI-Vorstufe intelligente Features und Funktionen. Seit Adobe seine KI „Sensei“ gestartet hat, hat sich das geändert. Nun optimiert eine KI Funktionen wie zum Beispiel Freisteller in Bildern. Dass das überhaupt möglich werden konnte, hat zwei Gründe.

Grafiksoftware bedient sich heute bereits Künstlicher Intelligenz
Oben: Grafik-Software enthält nun Funktionen Künstlicher Intelligenz. Vieles dabei basiert auf den Möglichkeiten der Software, Bilder zu erkennen.

Komplexität der Programmfunktionen

Die Programmpakete sind zunehmend komplexer geworden. Der Funktionsumfang etwa des aktuellen Photoshop ist mit dem der ersten Programmversionen nicht mehr zu vergleichen. Die Grafikprogramme quellen schier über vor Funktionalitäten, die immer unüberschaubarer werden. Sieht man sich Tutorials an, bemerkt man, dass für ausgefeilte Ergebnisse sehr viele manuelle Zwischenschritte notwendig sind. Adobe versucht inzwischen, solche Abläufe zu vereinfachen: Algorithmen sollen die Arbeitsschritte zusammenfassen. Da die KI die Qualität der Ergebnisse verbessert, sind sowieso weniger Zwischen- oder Korrekturschritte nötig. Die Notwendigkeit einer Beschleunigung des Arbeitsprozesses wird durch die KI Realität.

Die Technik ist soweit

Nicht nur können die Bildbearbeitungs- und Gestaltungsprogramme immer mehr, auch die Technik der Künstlichen Intelligenz ist weiter fortgeschritten. Algorithmen gibt es seit 300 v. Chr. Algorithmen wie sie heute in der digitalen Welt vorkommen, gibt es, seit es Programmierungen gibt, als verbreitete Anwendung seit den 1950er-Jahren. Dabei ist ein Algorithmus nichts anderes als ein Berechnungsverfahren, das sich innerhalb eines bestimmten Rahmens vollzieht. Es enthält Anweisungen und deren Abfolge für ein Problemlösungsverfahren. Man kann es sich als eine programmierte Bedienungsanleitung vorstellen. Nachdem Algorithmen als Steuersysteme unseres technischen Alltags immer wichtiger geworden sind, ist man dazu übergegangen, die Algorithmen zu vernetzen und Systeme zu erdenken, die reagieren können. Im Falle von Grafiksoftware müssen sie auf die Anforderungen des Designers reagieren können. Dabei sollen sie erkennen, was die Aufgabenstellung ist und eine Lösung dafür anbieten. Letztlich soll das vernetzte Programm aus seinen Erfahrungen lernen können. Das wäre der Schritt hin zur Selbstoptimierung. Aber auch die Rechenleistung der Computersysteme ist inzwischen in Sphären vorgedrungen, die vieles erst möglich macht.

Adobe, Affinity und QuarkXPress: Der Markt der Grafiksoftware

Adobe als Marktführer verfügt über einige sehr umfangreiche Programme wie Photoshop, InDesign und Illustrator, die wegen ihres Funktionsumfanges von Künstlicher Intelligenz profitieren können. Zudem verbindet Adobe auch sein Bildangebot über „Adobe Stock“ mit seiner Software. Auch „Adobe Fonts“ sind inzwischen im Abo enthalten. Stock-Fotos sind aus der Gestaltungssoftware hinaus aus der Cloud platzierbar. Schon bei der Bildersuche ist die KI behilflich.

Konkurrent QuarkXPress hat ein integriertes Programmpaket geschaffen, mit dem man nicht nur setzen und layouten kann, selbst die Generierung von Apps ist damit möglich. Anstatt eine Fülle an Programmen für die verschiedenen Aufgabenbereiche zu schaffen, geht Quark den Weg der Integration von Funktionen in einem Programmpaket und setzt dem teuren Abo-Modell von Adobe einen Einzelpreis entgegen.

Affinity mit seinen Programmen „Photo“ (vergleichbar mit Photoshop), „Designer“ (vergleichbar mit Illustrator) und „Publisher“ (vergleichbar mit InDesign) betreibt ein „Weniger-ist-mehr“. Die Programme sind schlank, schnell und über vergleichsweise geringe Einmalzahlungen preislich attraktiv.

Künstliche Intelligenz ist in der Softwarebranche zum Modewort geworden. Tatsächlich bringen in der Grafik-Software Übersichtlichkeit, durchdachte Funktionalitäten und kluge Algorithmen mitunter genug für einen schnellen Workflow – auch ohne KI. Affinity hat sich hier als kleine schnelle Konkurrenz zu Adobe etabliert. QuarkXPress kann auf seine lange Geschichte verweisen, durch die das Programm professionelle Funktionen etwa im Bereich der Typografie und für das Verlagspublishing bietet. Adobe positioniert sich als Zukunftsunternehmen, das seine Software „intelligent“ machen will. Es hat dabei einen einmaligen Software-Kosmos für alle Eventualitäten geschaffen, der allerdings auch bezahlt werden will. Denn das Abo-Modell ist insgesamt auf die Dauer teurer als der Programmkauf bei der Konkurrenz. Ob die KI als Verkaufsargument Adobes Position weiter festigen wird? Es wird darauf ankommen, ob der Nutzen sich fortwährend erhöht. Denn eine lernfähige KI würde sich laufend optimieren. Adobe wäre rein technisch über die Cloudanbindung seiner Nutzer dazu in der Lage, die Software aus den Millionen Aufgabenstellungen seiner Nutzer lernen zu lassen.

Bildanalyse als Kernkompetenz

Eine Schlüsseltechnologie für Adobe ist das Erkennen und Analysieren von Bildern und ihren Motiven. Das klingt auf den ersten Blick als etwas, das es schon lange gibt, etwa in Form der Gesichtserkennung. Allerdings hat Bilderkennung bei einem Unternehmen, das Gestaltungssoftware entwickelt, eine übergreifende Bedeutung.

  • Motiverkennung: Das beginnt bei der Suche im Bilddatenbestand von Adobe Stock. Früher war eine Verschlagwortung unerlässlich, um ein passendes Motiv zu finden, etwa bei der Motivsuche „Pferd“. Wenn die KI aber auch ohne Schlagworte erkennt, was sich auf einem Bild befindet, ist eine feiner abgestufte Suche möglich, etwa: „Frau auf Pferd vor Landschaft“.
  • Bildbearbeitung: Ist die KI aber erst in der Lage, Bildmotiviken zu erkennen, kann sie sie auch analysieren. Sie kann dann den optimalen Bildausschnitt vorschlagen, einen figürlichen Freisteller besser ausführen oder Bildteile ergänzen.

Welche KI-Design-Anwendungen gibt es?

Gemündet haben die bisherigen Bestrebungen von Adobe in Programmen, die dem Designer/der Designerin immer mehr Arbeit abnehmen und Design-Prozesse vereinfachen. Einige Beispiele:

Motiv auswählen in Photoshop

Ein Beispiel dafür ist das figürliche Freistellen von Fotomotiven in Photoshop. Über die Photoshop-Funktion “Motiv auswählen” (Auswahl > Motiv)  erzielt man heute mit einem Klick und etwas Nacharbeit das, was früher viel mehr manuelle Arbeit erforderte: einen figürlichen Freisteller. Die Künstliche Intelligenz könnte, wenn sie an genügend Fällen gelernt hat, unterschiedlichste Motive unterscheiden und immer genauer freistellen, bis keine manuelle Arbeit mehr erforderlich wäre. Wie im ersten Teil unserer Serie zu lesen, kann sich die KI mit „Machine Learning“, „Neuronalen Netzen“ und „Deep Learning“ weiter selbst optimieren. Jeder neue Freisteller, mit dem man sie füttern würde, würde sie optimieren, bis sie menschliche Haare oder das Fell von Tieren viel schneller und viel besser freistellen kann, als es der Designer per Hand könnte.

Inhaltsbasierte Füllung in Photoshop

Bei Photoshop wurde die Funktion „inhaltsbasierte Füllung“ hin auf die Möglichkeiten der KI optimiert. Die Funktion ahmt Muster täuschend echt nach und füllt zum Beispiel fehlende Teile der Hintergrundmotivik. Etwa am Bildrand oder in den Ecken eines Bildes durch Bilddrehung fehlende Rasenflächen werden erstaunlich gut ausgefüllt. In der aktuellen Version mit Livevorschau können die Ursprungspixel gedreht oder skaliert werden, um die Musterergänzung zu optimieren. Dabei kann der von der Software ergänzte Teil auf eine eigene Ebene gelegt werden. Die Funktion kann aber noch viel mehr: zum Beispiel Personen entfernen und auch komplexere Hintergründe täuschend echt ergänzen oder die Platzierung neuer Bildteile ermöglichen. Das ist die Voraussetzung für eine Erweiterung der Funktionen für ein Bildcomposing in Collagetechnik. Ein Bild kann durch die intelligente Ergänzungsfunktion schnell und einfach geändert und ergänzt werden. Die Freistellfunktion zum Auswählen zu entfernender Bildteile korrespondiert damit.

Inhaltsbasierte Freistellung für den optimalen Bildzuschnitt in Illustrator

Auch Adobe Illustrator profitiert von der Bilderkennung durch die KI. Die Funktion „inhaltsbasierte Freistellung“ unterstützt das Bildzuschneiden. Die KI sucht automatisch und motivabhängig den optimalen Bildausschnitt und schlägt ihn in Varianten dem Benutzer über den Zuschneiderahmen vor. Der Vorschlag kann übernommen oder geändert werden.

Formgitter für das Verzerren von Grafiken in Adobe Illustrator

Die Funktion „Formgitter“ in Adobe Illustrator legt auf ein Objekt ein Manipulationsgitter. Automatisiert werden die Punkte so gesetzt, dass man die Vektorgrafik krümmen oder neigen kann. Etwa, wenn man bei einer gezeichneten Person dem Kopf eine andere Winklung oder Körperhaltung geben will. Dafür werden feste Punkte, sogenannte „Pins“, gesetzt, die Dreh- oder Neigepunkte darstellen. Solche Punkte lassen sich auch manuell löschen oder hinzufügen.

Layout anpassen in InDesign

In Adobe InDesign gibt es eine Funktion, die schon in Folge 1 unserer Serie genannt wurde und sich „Layout anpassen“ nennt. Mit ihr kann man die Gestaltungselemente, indem man ein paar Grundeinstellungen vornimmt, auf neue Formate oder Seitenränder automatisch anpassen. InDesign erledigt die Neupositionierung aller Elemente. Dies ist die Arbeit eines Algorithmus. Eine KI könnte dies weiter verfeinern und perfektionieren.

Weitere KI-gestützte Funktionen im Überblick

Globale Bearbeitung: Hierbei werden in Illustrator gleiche oder ähnliche Gestaltungselemente bzw. Gruppen solcher Elemente insgesamt über einen Befehl geändert. Das mühselige Bearbeiten der Einzelelemente entfällt.

Freihand-Verläufe: Illustrator bietet nun mit der „Freihand“-Option feinere und organische Verläufe an. Über das Setzen von Punkten oder Linien, denen man Verlaufsfarben zuweisen kann, ist eine neue Art von realistischen Farbverläufen möglich.

Inhaltssensitive Anpassung: Wie in Illustrator kann InDesign platzierte Bilder selbst erkennen und intelligent an den Bildrahmen anpassen.

Fazit: Bilderkennung als zentrales Element der KI

Bei Gestaltungssoftware geht es um visuelle Inhalte und deren Bearbeitung und Platzierung im Layout. In einem ersten Schritt hat Adobe seine KI „Sensei“ auf dieser zentralen Eigenschaft der Bilderkennung aufgebaut. Die meisten neuen Funktionen analysieren das Bildmaterial, selbst wenn es um Vektorgrafiken geht, und vereinfachen die weitere Verfeinerung. Dabei wird die Arbeit beschleunigt. Dennoch sind diese ersten Funktionen erst ein Anfang. Adobe hat schon 2017 beispielhaft vorgestellt, was sich zukünftig mit der „Motiv-auswählen“-Funktion und der intelligenten figürlichen Freistellung alles machen lässt. Wenn Photoshop selbst komplizierte Bildteile realistisch ergänzen kann, wird jedes Bild frei manipulierbar. Elemente lassen sich wegnehmen und hinzufügen, ohne dass man die Änderung hinterher sehen kann. Es wird zukünftig aber auf das Optimierungspotenzial der Software ankommen.

Zusammenfassung zweiter Artikel KI-Reihe
Ralf Wasselowski
Unser Gastautor: Ralf Wasselowski. Er betreibt die Agentur Conceptbüro in Essen und ist ein Kenner der Design-, Grafik- und Werbebranche. ©Ralf Wasselowski
4
April
2019
Künstliche Intelligenz

Vom Algorithmus zur Super-Intelligenz

Künstliche Intelligenz (KI) ist in aller Munde. Mal als potenzieller Arbeitsplatzvernichter und Veränderer der Gesellschaft, mal zur Effizienzsteigerung. Dabei soll sie Unternehmen flexibler machen und Arbeitnehmern unbequeme Arbeiten abnehmen. Die KI hält nun auch Einzug im Mediendesign und in der Medienproduktion und zeigt, dass es auch hier Veränderungen geben wird. Im ersten Teil unserer Serie zum Thema „Künstliche Intelligenz“ widmen wir uns all dem, was diese Künstliche Intelligenz grundlegend ausmacht: Wie ist sie definiert und welche Konzepte kommen zum Tragen?

Was „Künstliche Intelligenz“ (KI) oder „Artificial Intelligence“ (AI) ganz genau ist, darüber herrscht Uneinigkeit. Denn der Grenzverlauf zwischen klug programmierten Softwaresystemen und der technischen „Künstlichen Intelligenz “, die der menschlichen Leistungsfähigkeit gleichen soll, ist umstritten. Schon lange wird beispielsweise alles, was von zunehmend komplexeren Algorithmen gesteuert wird, lapidar als „Künstliche Intelligenz“ bezeichnet. Sofern man jedoch die komplexen Möglichkeiten des Menschen bezüglich seiner Intelligenz zugrunde legt, zeigt sich, dass technische Lösungen noch im Hintertreffen sind. Im Hinblick darauf, wie der Mensch sich Wirklichkeit aneignet und wie er sie beeinflusst, ist ein noch so leistungsfähiger Algorithmus nur eine Teillösung. Oft sogar ist er lediglich eine recht kleine Lösung, die sich auf eine simple Aufgabe konzentriert: etwa Navigation, Ampelschaltung, Gesichtserkennung oder im Fotobereich Motiverkennung.

Was macht „Künstliche Intelligenz“ aus?

Allgemein gesagt ist die KI der Versuch, das menschliche Urteilsvermögen und sein Bewusstsein technisch nachzubilden. Deshalb müssen sich Informatiker zuerst grundlegende Gedanken darüber machen, welche Fähigkeiten und Abläufe dem Menschen seine Wahrnehmung, sein Fühlen, Denken und Handeln überhaupt ermöglichen. Auch die biochemischen Grundlagen der Nervenzellenvernetzung im Gehirn wurden analysiert und ihr Aufbau in einer digitalen Form umgesetzt. Die Antworten darauf, was eine KI in ihrer Praxis ausmacht, sind dementsprechend vielfältig.

Zunächst ist auffällig, dass die KI der Leistungsfähigkeit des Menschen vor allem dann überlegen ist, wenn es um die Bewältigung großer Datenmengen geht. Soll ein Mensch etwa eine Katze auf einem Foto erkennen und die KI ebenso, fällt kein Unterschied ihrer Leistungsfähigkeit auf. Würde man die KI aber in zwei Stunden 1.000.000 Bilder nach dem Motiv durchsuchen lassen, wäre ihr Vorteil klar: Der Mensch bräuchte weitaus länger für einen vergleichsweise eintönigen Job und ihm würden bei der Motiverkennung aus Konzentrationsmangel auch Fehler unterlaufen. Die KI wird ebenfalls nicht fehlerfrei sein, kann aber im Prozess der Bilderkennung immer weiter optimiert werden. Schnelligkeit ist für sie nur eine Frage der Ressourcen, etwa der Rechenleistung oder der Art ihrer Programmierung. Bei solchen Aufgabenstellungen, bei denen es um große Datenmengen geht, kommt der Begriff „Big Data“ ins Spiel.

Künstliche Intelligenz hat Potential
Oben: Die Künstliche Intelligenz ist so gut wie die Daten, mit denen sie der Mensch füttert.

Was kann Big Data?

Die herkömmliche Datenverarbeitung hatte in kurzen Durchlaufzeiten etwa bei Datenbankabfragen schon einiges geleistet, zu dem der Mensch in derselben Zeit nicht in der Lage gewesen wäre. Big Data fügt dem eine weitere Dimension hinzu: Hier geht es um riesige Datenmengen, die mit den damaligen Datenverarbeitungskonzepten nicht bewältigt werden konnten. Big Data bezieht sich im Wesentlichen auf drei Dimensionen der Tätigkeiten:

  • Größe: Datenvolumen und Umfang der Tätigkeit
  • Schnelligkeit: Geschwindigkeit für die Datenerzeugung und den Datentransfer
  • Varianz: Unterschiedliche Datentypen und ihr Ursprung

Big Data kann also die Verarbeitung riesiger Datenbestände bewerkstelligen, die vorher nicht möglich war. Aus diesen lassen sich aber nicht nur Ergebnisse extrahieren, die schiere Fülle an Informationen ist auch ein gutes Feld für weitergehendes Lernen des Systems.

Machine Learning: Lernen aus großen Datenbeständen

Oft wird „Machine Learning“ mit „Künstlicher Intelligenz“ gleichgesetzt. Um Machine Learning zu nutzen, wird dem Computer-System eine große Menge an Daten zur Verfügung gestellt, aus deren Auswertung es lernt. Damit ein System zum Beispiel kompetent Schach spielen kann, wird ihm der Verlauf der bekannten Spielverläufe als Datensatz überspielt. Es kann diesen Grunddatenbestand analysieren und daraus Folgerungen ableiten. So sind Computersysteme inzwischen in der Lage bei Spielen wie Schach oder Go jeden Menschen zu schlagen.

Allerdings: Wenn Machine Learning mit KI gleichgesetzt wird, dann wäre Machine Learning eher als Anfang einer vergleichsweise wenig leistungsfähigen KI zu verstehen. Denn es geht hierbei immer nur um die Bewältigung einer Aufgabe, während menschliche Intelligenz viele komplexe Aufgaben handhabt. Machine Learning macht sich Statistik-Verfahren zunutze, indem es aufgrund der eingegebenen Daten Wahrscheinlichkeiten hochrechnet. Wenn es beispielsweise in den Daten von 10.000 Schachspielen verschiedene Gruppen von Erfolgsvarianten ermittelt, kann es daraus für eigene Spielzüge Erfolgswahrscheinlichkeiten berechnen. Damit die Software komplexer wird und mehr kann, werden sogenannte „neuronale Netze“ genutzt, die noch mehr Leistung bringen.

Neuronale Netze nutzen Deep Learning

Der Begriff „neuronales Netz“ ist alt, er stammt aus dem Jahr 1943. Er steht für die Kopplung mehrerer Algorithmen. Algorithmen sind Programmierungen, die bestimmte genau beschriebene Aufgaben erfüllen oder Probleme lösen. Man spricht bei den neuronalen Netzen von einem Schicht-Modell, bei dem jede Schicht ihre spezifische Aufgabe erfüllt und an die nächste Schicht weitergibt. Jede Schicht löst auf Grundlage der vorher aufbereiteten Daten seine spezifische Aufgabe. Zugleich vollzieht sich die Bearbeitung von Informationen von Schicht zu Schicht wie ein Filtersystem, das anfänglich grob arbeitet und danach immer weiter verfeinert wird. So fließen jeweils die Ergebnisse einer Speziallösung in die Aufgabenlösung der nächsten Schicht ein. Geschaffen wird so ein Rechengebilde, das in der Lage ist, hochkomplexe Aufgaben zu bewältigen. Damit wird künstlich die Struktur des menschlichen Gehirns mit seiner neuronalen Vernetzung nachgebildet.

„Deep Learning“ bezieht sich auf die Mehrdimensionalität der Rechen-Schichten, die viel komplexere Aufgaben lösen können als früher, wo vergleichsweise eindimensionale Rechenstrukturen vorlagen.

Puristen würden aber auch hier noch nicht von einer „Künstlichen Intelligenz“ sprechen. Um dem Begriff der KI dennoch gerecht zu werden, hat man sich auf drei differenzierende Begriffe geeinigt, die verschiedene Leistungsstufen beschreiben: die schwache und starke KI sowie die Super-KI.

Was ist die „schwache Künstliche Intelligenz“?

Alles, von dem bisher die Rede war, zählt zur sogenannten „schwachen Künstlichen Intelligenz“. Diese ist in der Lage, eine einzige Aufgabe zu erfüllen, zum Beispiel Schach oder Go besser als der Mensch zu spielen. Damit bildet sie aber lediglich den spezialisierten Ausschnitt einer Fähigkeit des Menschen ab. Konkurrenz kann sie ihm so nur in einem eng definierten Bereich machen, selbst wenn die Ergebnisse dort beeindruckend sind.

Was ist die „starke Künstliche Intelligenz“?

Die eigentliche Künstliche Intelligenz soll aber tendenziell an die zahlreich verschachtelten Möglichkeiten des Menschen heranreichen. Die Leistungsfähigkeit des Menschen liegt darin, unterschiedliche Sinneswahrnehmungen, die ihm Erkenntnisse über die Welt verschaffen, mit seinem Fühlen und Denken zu kombinieren. Das versetzt ihn in die Lage auf Erfordernisse schnell zu reagieren und Entscheidungen zu treffen. Entscheidungsfindung ist die Grundlage von Handeln. An diesem Punkt, dem des Agierens, kommen Roboter ins Spiel. Denn selbst wenn eine Maschine in der Lage wäre, eigenständig komplexe Sachverhalte wahrzunehmen und zu analysieren, könnte sie nur elektronisch „denken“ und nicht handeln. Wäre die KI allerdings Bestandteil eines künstlichen Organismus, der sich bewegen kann, der etwa laufen und greifen kann, würde sich einiges ändern. Dann hätte man einen kooperativen Roboter, der etwa in einer Druckerei registrieren würde, welches Papier für den nächsten Druckgang benötigt würde. Er könnte autonom Papier aus dem Lager holen und selbstständig in die Druckmaschine einlegen. Ein letzter Schritt, der den Menschen auszeichnet, ist seine Lernfähigkeit. Das System müsste also den Erfolg seiner Rechenleistung und ggf. seiner eigenen Handlungen beurteilen und dadurch Veränderungspotenziale für seine zukünftigen Aktionen ermitteln.

Allerdings: Dass selbst eine starke Künstliche Intelligenz einen ironisch gemeinten Witz von Ernsthaftigkeit unterscheiden kann, erscheint auch zukünftig schwierig. Den Unterschied für das Verständnis eines Witzes machen – neben Wissen – die Wahrnehmung, die soziale und kulturelle Eingebundenheit und das Wertesystem des Menschen. Sie bilden den Bezugsrahmen für das Verständnis eines Witzes. Es gibt viele Bereiche der Gesellschaft, etwa die Beurteilung von Kunst oder Literatur oder generell die Einbindung in kommunikative Prozesse, die schwer in die digitale Welt zu transferieren sind. Aus all dem folgt, dass eine KI viel mehr können muss als sie es im Augenblick kann. Eine solche dem Menschen vergleichbare technische Intelligenz wäre die sogenannte „Superintelligenz“.

Die Singularität als Superintelligenz

Eine KI, die die menschlichen komplexen Leistungen erbringen kann, lernfähig und autonom ist, nennt man „Superintelligenz“. Sie löst nicht mehr nur ein Problem, sondern wird zur „generalistischen KI“, die wie ein Mensch über Vieles nachdenken und entscheiden kann. Vor allem aber: Sie kann sich selbst weiter programmieren und damit zusehends optimieren. Je mehr sie dies wieder und wieder tut, desto tendenziell perfekter würde sie werden, bis sie dem Menschen weit überlegen ist. Diese Künstliche Intelligenz, die auch „technologische Singularität“ genannt wird, wird sich viel schneller als der Mensch optimieren können. Sie stellt in dieser Zukunftsvision einen technischen Organismus dar, der im Gegensatz zum Menschen seine eigene Evolution ungemein beschleunigen könnte. Google-Zukunftsforscher Raymond “Ray” Kurzweil oder Tesla-Chef Elon Musk gehen davon aus, dass eine solche KI dem Menschen potenziell gefährlich werden könnte. Deshalb fordern sie, dass jede KI „friendly“ programmiert werden muss, das heißt: nicht gegen den Menschen gerichtet sein darf.

Selbstständiges Lernen und eigenständige Optimierung sind Kennzeichen einer echten künstlichen Intelligenz
Oben: Echte Künstliche Intelligenz beginnt selbstständig zu lernen und sich umprogrammierend zu optimieren.

Inwieweit geht KI über Algorithmen hinaus?

Man sieht an diesem Drei-Stufen-Modell, dass Algorithmen Bestandteile von KI sind, wie Big Data oder neuronale Netze auch. Eine richtige KI ist dem Menschen und seinen Fähigkeiten nachgebildet. Das betrifft vor allem drei Aspekte:

  • Lernfähigkeit
  • Fähigkeit zur Reflektion und Selbstreflektion
  • Selbstbestimmtes Entscheiden und Agieren

Im Zusammenhang mit der KI ist vor allem der Begriff des „Lernens“ bzw. der „Lernfähigkeit“ zentral. Hier unterscheidet man verschiedene Ansätze, bei denen die KI entweder alleine lernt oder mithilfe des Menschen:

Supervised Learning: Der Mensch leitet die Maschine an

Das System bekommt vom Menschen strukturelle Vorgaben, nach denen es die Datensätze analysiert und auswertet. So eine vereinfachte Anweisung im Gestaltungsprozess könnte etwa lauten: „Suche im Bildarchiv alle Motive mit weißen Tieren heraus. Ordne sie nach Katzen, Hunden und Pferden.“

Unsupervised Learning: Die Maschine solo

Das System analysiert einen Datenbestand ohne Vorstrukturierung durch den Menschen und extrahiert selbstständig daraus Muster, die etwa hierarchisch geordnet werden. Hier könnte die Anweisung dem Sinn nach lauten: „Sieh dir den Datenbestand an und erkenne Muster.“ Den Rest macht die Maschine.

Reinforcement Learning

„Reinforcement Learning“ bedeutet „verstärkendes Lernen“ im Sinne eines Motivierens. Dabei werden manche Verhaltensweisen verstärkt, andere negativ bewertet. Bei KI-Systemen werden Echtzeitdaten genutzt, um neue Lösungen zu finden. Zum Beispiel wenn ein Roboter ein ihm bisher unbekanntes Hindernis überwinden soll, kann per Machine Learning eine Bewegungsstrategie entwickelt werden. Sie basiert auf der Analyse aller bekannter Hindernisse und deren Bewältigungsmustern. Dabei werden erfolgreiche Verhaltensweisen positiv bewertet, weniger erfolgreiche ausgemustert.

Ein Beispiel aus der Zukunft des Designs: Man könnte ein System mit Gestaltungsgesetzen füttern und mit Daten von Blickbewegungskameras aus Laborversuchen, bei denen die Teilnehmer verschiedene Designvarianten betrachten mussten. Die Auswertung der Blickbewegung würde zum Beispiel die Verweildauer auf Überschriften, Bildern und sonstigen Gestaltungselementen zeigen. Die Gestaltungsgesetze wären ein Rahmen, der dem System vermittelt, wie Elemente anzuordnen sind. Beide Datensätze – a) wie gestaltet werden soll und b) was die Blicke des Betrachters vor allem anzieht – könnten dazu führen, dass das System alternative Gestaltungsentwürfe ausarbeitet. Wenn man der KI Texte, Bilder und weitere Gestaltungselemente liefern würde, würde sie daraus Designvarianten entwickeln, die der Designer weiter ausarbeiten könnte.

Schon künstliche Intelligenz? Automatische Layout-Anpassung bei InDesign
Oben: InDesign bietet die Option „Layout anpassen“. In InDesign CS6 heisst sie „Alternatives Layout“. Damit übernimmt das Programm layoutmässige Umstellungen etwa bei Formatänderungen.

Welche KI-Konzepte sind für den Designbereich relevant?

Der Traum von der intelligenten bzw. automatisierten Gestaltung durch den Computer ist so alt wie das Desktop-Publishing, das heißt, das computergestützte Publizieren. Die Anzeigen-Gestaltungssoftware „MultiAd-Creator“ bot schon in den Anfangstagen des Desktop-Publishing speziell für die Formatänderung von Anzeigen eine flexible Lösung an: die vorhandenen Elemente wurden automatisch neu angeordnet, damit sie auf das neue Format passen. Eine ähnliche Option bietet heute Adobe InDesign über die Funktion „Layout anpassen“. Ein anderes Programm, das 1992 auf den Markt kam, hieß „IntelliDraw“ und kam von „Aldus“, einem der Erfinder des Desktop-Publishing. Es sollte ermöglichen, Flächen mit wenig Aufwand und viel technischer Intelligenz umzuformen. Die Konzepte dieser Programme stammten aus Zeiten, in denen die Welt begeistert war von den Möglichkeiten der grafik-basierten Gestaltungscomputer. Man traute den Systemen viel zu, doch die Konzepte des mitdenkenden Programmes konnten sich zunächst nicht durchsetzen. Das lag vor allem an den fehlenden Ressourcen: Die Computer wären nicht leistungsfähig genug gewesen, um umfangreiche Projekte neu zu berechnen. Auch begannen die Software-Ingenieure erst, die Funktionalitäten großer Grafik-Programme aufzubauen.

Heute stehen hardwaremäßig die Ressourcen bereit. Das CEWE-Fotobuch etwa bietet über den Einsatz von KI inzwischen die Möglichkeit, Bilder hochzuladen – die Gestaltung übernimmt die Künstliche Intelligenz. Sie kann Gesichter und Orte erkennen und nutzt dafür die Bildmetadaten. Das System verteilt die Bilder auf den Seiten und macht Vorschläge für Fotogrößen. Es geht also bei der Kopplung von KI und Design vor allem darum, den Designprozess zu vereinfachen, zu beschleunigen und die Qualität der standartisierten Gestaltung zu verbessern.

Wo wird KI im Mediendesign und der Medienproduktion zukünftig eingesetzt?

Künstliche Intelligenz ist aktuell zum Beispiel im Bereich der Bilderkennung weit fortgeschritten. Die Adobe-KI „Sensei“ hilft dem Designer besser und schneller, benötigte Fotomotive zu finden. In welchen Bereichen ist KI noch denkbar?

  • KI-gestützte Layouts: Die Rede war bereits von der KI, die für den Designer die Vorarbeiten erledigt. Bei einem Buch etwa könnte sie alle Texte und Bilder vorplatzieren und Fußnoten setzen. Aber es ist auch denkbar, dass sich Standardgestaltungen hin zu Dienstleistern wie Druckereien verlagern. Über KI-gesteuerte Templates könnten Erstentwürfe online schnell wie nie realisiert werden.
  • Automatisierte Layouts: Eine KI kann einen Datenbestand selbstständig visualisieren. Was jetzt schon möglich ist: die KI generiert etwa aus der Gesamtheit der betriebswirtschaftlichen Zahlen eines Unternehmens selbstständig eine Powerpoint-Präsentation.
  • KI als Assistent: Um Einheitlichkeit gerade im Corporate Design zu gewährleisten, müssen Designregeln angewendet werden. Ein Mittel, diese stringent zu realisieren, sind Gestaltungsraster. Es ist denkbar, dass die KI diese Designvorgaben enthält. Dies könnte sie in die Lage versetzen, ein kompetenter Assistent des Designers zu werden. Sie zeigt ihm etwa an, wo seine Fotogrößen nicht ins Konzept passen oder macht Farbvorschläge, die zum Unternehmens-Farbkanon passen.
  • Datencheck-Erweiterung: Ein mächtiges Tool der Qualitätssicherung im Onlinedruck ist der Datencheck. Dabei wird geguckt, ob die Daten druckkonform sind. Es ist denkbar, dass dieser Datencheck erweiterte Möglichkeiten bieten wird. Er könnte zukünftig zum Beispiel erkennen, ob Elemente in Randnähe falsch platziert sind.
  • Kooperative Roboter: Wenn die KI autonom agierende bewegliche Systeme steuert, könnten kooperative Roboter entstehen, die Arbeiten in Druckereien erledigen.
  • Logistik/Auslieferung: KI-gestützte Drohnen könnten Drucksachen individuell und flexibel ausliefern.
  • Kommunikation: Sprachgesteuerte Systeme wie Amazon Echo mit Alexa oder Google Home könnten Bestellungen von Drucksachen kommunikativ begleiten. So könnte etwa der Nachdruck einer Drucksache mit ein paar Sprachbefehlen veranlasst werden.

Dies sind Beispiele dafür, an welchen Stellen Künstliche Intelligenz den Arbeitsalltag von Designern, Produktionern oder Auftraggebern verändern könnte. Wir werden dies in den nächsten Teilen unserer Serie vertiefen.

Fazit: KI zwischen Möglichkeiten und Überforderung

Künstliche Intelligenz ist ein jahrzehntealter Forschungsbereich. Viele große Unternehmen versuchen nun die Möglichkeiten der Künstlichen Intelligenz auf die Praxis anzuwenden. Das sind Händler wie Amazon, Internetkonzerne wie Google oder Facebook oder Technologiekonzerne wie die Google-Mutter Alphabet, die technische Intelligenz in selbstfahrende Autos oder Haustechnik bringt. Auch Apple oder Microsoft gehören dazu. Da auch SAP als Unternehmen mit Lösungen für den Mittelstand KI einsetzt, werden auch mittelständische Unternehmen KI-Services einsetzen oder selbst entwickeln können.

Dabei ist etwas festzustellen, das auf den ersten Blick widersprüchlich klingt:

  • Kindliche KI: Künstliche Intelligenz steckt einerseits noch in den Kinderschuhen. Einige Experten sehen die konkreten durchschlagenden Auswirkungen dieser Technologie noch Jahrzehnte entfernt.
  • Erwachsene KI: Andererseits wächst dieses technologische Kind viel schneller, als wir es uns vorstellen können. Die Selbstlernfähigkeiten und Optimierungsmöglichkeiten werden vermutlich schneller als gedacht Leistungsgrenzen einreißen. Vor allem dort, wo in der Wirtschaft ein hoher Konkurrenzdruck vorhanden ist. Denn Konkurrenzdruck bedeutet, dass Innovationen und Effizienzsteigerungen einen entscheidenen Wettbewerbsvorteil bringen können.

Diese Veränderung durch den Einsatz von KI ist im Zusammenhang mit anderen Technologien zu sehen, die sich parallel entwickelt haben. Die Sprachsteuerung etwa könnte die Computer-/Designer-Interaktion verbessern. Eine KI wäre sogar in der Lage in einen Dialog mit dem Designer einzutreten, um Gestaltungsabläufe zu begleiten.

Ein intelligentes System kann aber nur dazu lernen, wenn es relevante Daten nutzen kann. Deshalb müssen sich Software-Ingenieure Gedanken machen, welche Daten sie bereitstellen, damit das System seine Arbeit optimal erledigen kann. Auf absehbare Zeit, ist die KI also vom Menschen abhängig.

Infografik zu "Vom Algorithmus zur Super-Intelligenz"
Ralf Wasselowski
Unser Gastautor: Ralf Wasselowski. Er betreibt die Agentur Conceptbüro in Essen und ist ein Kenner der Design-, Grafik- und Werbebranche. ©Ralf Wasselowski