Die größte Herausforderung beim Erstellen von Explainervideos ist aus meiner Sicht die Synchronisation von Audio und Video. Voraussetzung dafür sind auf jeden Fall gute Vorbereitung in Form eines durchdachten und mit dem Fachbereich abgestimmten Skriptes und/oder Storyboards.
Bei der Synchronisation habe ich mehrere Varianten probiert – alle stellen sich als relativ aufwändig heraus.

  • Variante 1: zeitgleiche Aufnahme bei der jeweiligen Aktion (also z.B. beim Zeichnen oder Bewegen des Mauszeigers)
    Erfodert ein hohes Maß an Konzentration beim Sprechenden, da er ja gleichzeitig auch etwas anderes (zeichnen, bewegen, legen, animieren, …) .
    Spricht jemand Unerfahrener ein, z.B. eine Person aus dem Fachbereich, bedeutet diese Methode viel Betreuungsaufwand und ist fehleranfällig.
    Schnitt und Nachbearbeitung gestalten sich jedoch einfacher.
  • Variante 2: nachgelagerter Sync von Audio und Video
    Ist in der Produktion und Aufnahme einfacher und auch für Unerfahrene Personen leichter.
    Bedeutet jedoch sehr viel mehr Aufwand bei Schnitt und Nachbearbeitung. Im Extremfallmuss man Szenen nachfilmen, nachzeichnen, nachsprechen.

Welche Variante man wählt hängt wohl vom Kontext ab.

Weiters wurde mir die Wichtigkeit von Sound-Effects (SFX) bewußt und wie präzise der Effekt getimed sein muss. Ein Millisekunderl zu spät und die Animation ist nicht mehr stimmig.
Ein leises „Filzstift-auf-Flipchart“-Geräusch im Hintergrund macht ein Whitbeoardvideo gleich viel ansprechender.
Seiten für kostenlose Sound Effects gibt es viele, zum Beispiel https://freesound.org/.

Wie sind eure Erfahrungen mit Synchronisation und Sound Effects? Ich freue mich auf Beiträge und Meinungen.