Begriffe und Erläuterungen zum digitalen Videoformat.

AVI (Audio Video Interleaved)

Audio Video Interleave. AVI wird fälschlicherweise oft als Videoformat, oder Codec angesehen; in Wahrheit ist es nichts anderes als ein Container, also eine Art Dateihülle für Digitalvideos aller Art und Kompressionsverfahren. In einer AVI-Datei kann zum Beispiel ein DivX-komprimiertes Video mit MP3-komprimiertem Sound enthalten sein.

Das relativ verbreitete Format AVI (Audio Video Interleaved) ist ein ursprünglich von Microsoft entwickelter Videostandard der ersten Stunde. Dieses Format arbeitete zunächst ohne Kompression und konnte sowohl animierte Bildsequenzen als auch Videodaten enthalten. Neu war damals die Einbindung einer Audiosequenz zusätzlich zum Film. AVI speichert die Audio- und Videodaten in zwei parallelen Strömen in einer Datei (Interleaved). Audio Video Interleaved entwickelte sich allerdings immer mehr zu einem universellen Wrapper-Format: Hinter der universalen Extension verbergen sich inzwischen vielfältige Videoformate. Es handelt sich bei AVI also nicht um einen einheitlichen und verbindlichen Codierungsstandard, sondern um eine erweiterbare Norm für ein Container-Dateiformat. Eine AVI-Datei kann unkomprimiertes Videomaterial enthalten, aber auch mit DivX, Intel Indeo, Cinepack oder MPEG 4 codierte Filme. Die Wiedergabe einer solchen Datei ist nur mit dem Codec möglich, mit dem die Datei ursprünglich codiert wurde. Dieser Umstand macht es für den Anwender oft kompliziert, eine bestimmte Datei abzuspielen. Um dem Media Player und anderen Programmen mitzuteilen, welcher Codec für die Videodatei zuständig ist, hat Microsoft in Zusammenarbeit mit mehreren Codec-Herstellern einen Identifizierungscode entwickelt, den Four-CC-Code. Dieser wird beim Codieren der Videodatei in den Quelltext geschrieben. Er steht am Dateianfang von AVI-Videos und besteht aus vier Buchstaben, die Aufschluss darüber geben, in welchem Format der nachfolgende Datenstrom codiert ist.

Bitrate

Menge Daten pro Zeiteinheit, beispielsweise eines Videostromes (oft auch mit Datenrate bezeichnet), üblicherweise in Kbit/s , KB/s , Mbit/s oder MB/s - je nach Dimension. Bei der Video- oder Soundkomprimierung bedeutet Bitrate die Stärke der Komprimierung und damit die Qualität der Daten. Je höher die Bitrate, desto weniger komprimiert, desto größer also die Datei und desto höher die Qualität. Man unterscheidet zudem CBR (Constant Bit Rate) und VBR (Variable Bit Rate).

Maßeinheiten: KB/s MB/s Kbit/s Mbit/s GB/s Gbit/s
Angaben zur Datenrate – je nach Größenordnung der Menge an digitalen Information pro Zeiteinheit spricht man hier von:

  • Kbit/s oder Kbps (Kilobit pro Sekunde)
  • KB/s (KiloByte pro Sekunde)
  • Mbit/s oder Mbps (Megabit pro Sekunde)
  • MB/s (MegaByte pro Sekunde)
  • Gbit/s oder Gbps /Gigabit per Sekunde)
  • GB/s (GigaByte pro Sekunde)

wobei ein Byte immer 8 Bit entspricht, also z.B. 1 KiloByte = 8 Kilobit und jede Potenz, dem Binärsystem entsprechend, um den Faktor 1024 grösser ist, also 1 GigaByte = 1024 MegaByte = 1048576 KiloByte, ebenso 1 Mbit = 1024 Kbit.
(so entspricht 1 MB = 8 Mbit = 1024 KB = 8192 Kbit)

CBR (Constant Bit Rate)

Constant Bit Rate. Im Gegensatz zu VBR (Variable Bit Rate) werden hier alle Informationen unabhängig von der Art der Informationen mit der gleichen Bitrate komprimiert.

Codec

(aus COmpressor - DECompressor bzw. COdieren - DECodieren).

Unter einem Codec versteht man das Prinzip, einen unkomprimierten Video- und/oder Audiostrom nach einem definierten Algorithmus zu komprimieren und wieder entschlüsseln zu können. Beispiele verschiedener Codecs: Sorensen, MPEG , DivX,  etc. Bei der Komprimierung wird festgelegt, in welches Dateiformat das fertige Material umgewandelt werden soll (AVI, QuickTime ..) - das bedeutet, dass Dateien gleichen Formats nicht unbedingt mit dem gleichen Codec komprimiert sein müssen.

DivX

DivX ist ein Warenzeichen von DivXNetworks, Inc.

Um eine typische Verwechslung aufzuklären: DivX ist kein MPEG-4 im Sinne dieser Bedeutung. Es ist vielmehr ein kurioses Sammelsurium verschiedener Standards.

DivX bezeichnet einen Video-Codec, der teilweise kompatibel mit Techniken einiger MPEG-4 Kompressoren ist. Es ist ein eigenständiger Standard im Sinne eines weiteren Multimedia Formats und im Gegensatz
zur landläufigen Meinung nicht MPEG-4 kompatibel im eigentlichen Sinne. Im Gegensatz zur allgemeinen Form des MPEG-4 Standards, der neben den bewegten Bildern auch Ton und andere Medien prinzipiell einschließt, bezeichnet DivX einen reinen Video-Kompressor. Das DivX-Format ist abgeleitet aus Microsofts eigener Interpretation von MPEG-4, die ursprünglich MPEG-4 Video Spuren in ASF Dateien einlagerte. DivX ist gegenüber Microsofts proprietärer Lösung ein ebenso proprietäres Format, das seinerseits MPEG-4 kompatible Video-Spur nun alternativ in eine AVI Datei einbettet. Die Tonspur einer typischen DivX Datei ist meist als MP3 oder Windows Media Audio realisiert.

Beide Formate, Microsofts ursprüngliche Lösung wie auch DivX sind nicht auf MPEG-4 Playern abspielbar, die auf das standardisierte MP4 Dateiformat setzen. Ein weiterer Nachteil von DivX ist naturgemäß darin zu suchen, dass die Dateien selbst im Windows Media Player nicht ohne das entsprechende Plugin von DivX abspielbar ist, das in der Lage ist dieses Format wiederzugeben.

Frame

Ein Frame entspricht einem Einzelbild eines Films. Ein Film ist also aus hintereinander abgespielten Frames aufgebaut. Damit das Auge die Einzelbilder nicht wahrnimmt, werden die Frames sehr schnell hintereinander abgespielt. Z.B. 25 fps (frames per second) beim PAL-Format, der in Europa verwendet wird.
Es gibt nun verschiedene Arten von Frames. Ein Keyframe ist ein Einzelbild, das die kompletten Bildinformationen enthält. Im Gegensatz dazu enthalten I-Frames und P-Frames nur die Informationen, die sich seit dem letzten Keyframe verändert haben.

GOP (Group of Pictures)

Das zentrale Element einer MPEG-Kompression sind die "GOP" (Gruppen von Bildern). Eine GOP enthält zwischen zehn und 15 Einzelbilder (Frames).

 

 

Das erste Bild einer Gruppe besteht aus dem sogenannten Intra-Frame (I-Frame). Nur die I-Frames sind Vollbilder, entsprechen also einem JPEG.

Danach werden die Predicted Frames (P-Frames) erzeugt. Sie sind vom letzten vorhergehenden I- oder P-Frame abgeleitet. Das neue P-Frame enthält Informationen über die Veränderungen im Bild und umfasst nur etwa 40 % der Datenmenge eines I-Frames.

Zuletzt entstehen die sog. Bidirectional Predicted Frames (B-Frames). Sie machen den Löwenanteil in einer GOP aus, enthalten aber am wenigsten Daten. Sie leiten sich sowohl aus dem jeweils vorhergehenden, als auch aus dem nachfolgenden P- oder I-Frame ab. Der Encoder nutzt deren Informationen, um die B-Frames aufzubauen.

Interlaced

Wie man auch im Kino gut erkennen kann, reichen 25 Bilder pro Sekunde völlig aus, um dem menschlichen Auge die Illusion einer fließenden Bewegung zu vermitteln. Da eine Fernsehröhre jedoch häufiger beschrieben werden muss, um nicht zu flimmern, wurde das Zeilensprungverfahren  ("Interlaced"-Darstellung) erfunden. Dazu wird jedes der 25 Vollbilder in zwei Halbbilder zerlegt, wobei das erste Halbbild  alle Zeilen mit ungeraden Zeilennummern besitzt und das zweite Halbbild  alle geraden Zeilen. Diese Halbbilder werden nun mit der doppelten Frequenz (50HZ) hintereinander und dabei ineinander verschachtelt übertragen.

Kompression (Videokompression)

Video wird zur Verarbeitung beim digitalen Videoschnitt (Non-linear-Editing), oder für die Postproduktion in Form von Datenpaketen auf Festplatten gespeichert. Je höher die Ansprüche der Produktion und die gewählte Qualität bei der Digitalisierung, desto größer sind die Datenmengen die benötigt werden, um diese Bildinformationen zu speichern. Festplatten und Computersysteme bieten nur eingeschränkte Möglichkeiten diese Daten in der notwendigen Geschwindigkeit zu lesen und zu schreiben. Soll also eine Videodatei in einem Schnittprogramm in Echtzeit (Pal: 25 Frames/sec.) abgespielt werden können, so muss das verwendete Computersystem fähig sein, diesen Datenstrom ohne Unterbrechung von der Festplatte zu lesen, die Daten in Bilder umzurechnen und diese auf einem Monitor darzustellen. Ein unkomprimiertes Videobild mit 720 x 576 Pixel hat eine Dateigröße von ca. 1,2 MB - 25 Bilder ergeben also ca. 30 MB.D.h. bei unkomprimiertem Video (RGB 4:4:4) entsteht ein Datenstrom von 30 MB/sec. (YCbCr 4:2:2 ca. 20 MB/sec.). Die höchste Datentransferrate bei Festplatten liegt zur Zeit zwar theoretisch bei 320 MB/sec. (SCSI U320), allerdings müssen die Daten im Computer noch weiterverarbeitet werden und diverse Schnittstellen und Prozesse durchlaufen und so werden z.Zt. in der Praxis mit einem High-End-Raidsystem maximal 200 MB/sec erreicht. Für Videodaten ist es zusätzlich notwendig, die Transferraten über lange Zeiträume, sowohl für das Lesen als auch für das Schreiben konstant zu halten, was ebenfalls auf Kosten des erreichbaren Datendurchsatzes geht. Standardcomputer mit schnellen IDE-Festplatten bewältigen kontinuierliche Datenraten von maximal 20 - 30 MB/sec. 10 Minuten unkomprimiertes Video ohne Ton benötigen einen Speicherplatz von 18 GB – für eine Stunde würde das also mehr als 100 Gigabyte bedeuten.

Da schon während der Videoaufnahme in der Farbraum-Umwandlung (RGB zu YUV, siehe Grundlagen Videosignal) eine Datenreduktion vorgenommen wird, gibt es eigentlich keine vollkommen unkomprimierten Videosignale. Lediglich in High-End Produktionssystemen werden die digitalen Videodaten, die z.B. von einem Filmscanner direkt als RGB-Daten gewonnen werden, oder innerhalb von HDCAM bzw. HDTV Produktionssystemen, völlig unkomprimiert verarbeitet. Die Anforderungen an das Gesamtsystem sind dabei sehr hoch und die einzelnen Komponenten sind entsprechend teuer. Nur diese Systeme bieten die Möglichkeit die Videodaten völlig verlustfrei, auch über mehrere Generationen hinweg, zu bearbeiten.

Während für den Bearbeitungsprozess die Kompression eingesetzt wird, um die Datenströme auf ein technisch sinnvolles Maß zu reduzieren, ohne dabei die Videoinformationen und die Bildqualität wesentlich zu verändern, geht es bei der Kompression für Multimediaanwendungen, wie etwa CD-Roms oder DVDs, darum, die Bildinhalte soweit zu reduzieren, dass für die menschliche Wahrnehmung gerade noch genug Information übrig bleibt, um den Eindruck von klaren Bildern und flüssigen Bewegungen vorzutäuschen. Diese Formen der Kompression eignen sich nicht für die Bearbeitung des Materials, sondern sind lediglich für die Wiedergabe und das Betrachten der Videos konzipiert. Die stärkste und verlustreichste Kompression wird für Streaming-Anwendungen eingesetzt. Hierbei geht es vorrangig darum, die Datenmengen soweit zu reduzieren, dass die bewegten Bilder und der Ton über Internetverbindungen übertragen und von mehreren Nutzern gleichzeitig geladen werden können.

MPEG

MPEG ist die Abkürzung für "Motion Picture Experts Group", die verantwortlich ist für die Festlegung der Standards.Wichtigste Grundlage für den MPEG-Standard ist im Unterschied zur M-JPEG-Kompression das Interframe-Verfahren. Dabei werden nicht nur die einzelnen Bilder eines Videos komprimiert: Zur effizienteren Datenreduktion werden hier auch die aufeinanderfolgenden Bilder analysiert und miteinander verglichen, um nur jene Bereiche zu speichern, die sich im Ablauf verändern. Auch bei bewegten Bildelementen, die in sich unverändert bleiben, werden in der Bildfolge nur die Bewegungsvektoren gespeichert. Diesen Vorgang nennt man Motion Compensation.

So wird jeweils ein Einzelbild komplett gespeichert, diese Bilder werden als I-Frames bezeichnet, sind wie beim M-Jpeg-Verfahren intrakodiert - also unabhängig vom vorangegangenen oder nachfolgenden Bild - und bilden die Referenzbilder.Bilder, die aus einem vorhergehenden I-Frame mit Hilfe der oben beschriebenen Techniken sozusagen vorhergesagt werden, bezeichnet man als Predicted-Frames, also P-Frames. Diese Frames enthalten neben den Bildinformationen über veränderte und unveränderte Bildbereiche auch die Vektordaten aus der Motion Compensation, die angeben, wohin sich einzelne Elemente vorausichtlich bewegen werden. P-Frames benötigen etwas mehr als die Hälfte der Speichermenge eines I-Frames. Bei stärkeren Kompressionen können sich P-Frames auch auf vorhergehende P-Frames beziehen, was natürlich auf Kosten der Bildqualität geschieht.Zwischen den I- und den P-Frames lassen sich zur weiteren Datenreduktion Frames berrechnen, die sich sowohl auf vorhergehende I- bzw. P-Frames als auch auf nachfolgende I- bzw. P-Frames beziehen - also bidirectional. Diese Frames werden als B-Frames bezeichnet. B-Frames enthalten hauptsächlich Vektorinformationen und benötigen ungefähr ein Viertel des Speicherbedarfs eines I-Frames. Aus diesem Grund treten B-Frames bei starker Kompression am Häufigsten auf. Die Steuerung der Stärke der Kompression erfolgt hauptsächlich über die Anzahl der eingesetzten B- und P-Frames. Je mehr dieser Frames zwischen den Referenzbildern, also den I-Frames, eingesetzt werden, desto höher ist die Datenreduktion und desto schlechter wird die Bildqualität. Eine zusammenhängende Gruppe von I-, B- und P-Frames bezeichnet man als GOP(Group of Pictures).

MPEG eignet sich grundsätzlich nicht für den Einsatz in Schnittsystemen, da durch das Interframe-Verfahren nicht auf jeden einzelnen Frame zugegriffen werden kann. Beim Interframe-Verfahren stehen die komprimierten Einzelbilder in Abhängigkeit zueinander. Um z.B. einen einzelnen B-Frame zu öffnen bzw. zu editieren, benötigt man die Bildinformationen der angrenzenden I- bzw. P-Frames!Als Ausnahme gilt das so genannte I-Frame Only Verfahren, das in zahlreichen Schnittsystemen eingesetzt wird. Bei diesem Verfahren werden nur I-Frames erzeugt. Es handelt sich dabei also um ein Intraframe-Verfahren, bei dem jeder einzelne Frame unabhängig von den vorhergehenden oder nachfolgenden Bildern editiert werden kann.

Mpeg-Codecs eignen sich hervorragend für den plattformübergreifenden Austausch von Videodaten in einem frei skalierbaren Verhältnis zwischen Qualität und Datenrate.

MPEG-1

Dieses Format wurde seit 1988 entwickelt und 1993 standardisiert mit dem Ziel, Video- und Audiodaten auf CD-Roms zu speichern und auf handelsüblichen CD-Rom-Laufwerken möglichst ruckelfrei wiedergeben zu können. Vorerst musste dazu zusätzliche Hardware verwendet werden (Mpeg-Decoder-Karten), ab Mitte der 90er Jahre wurden die Rechner aber schnell genug und MPEG1 wurde zu einem plattformübergreifenden Format, das nicht nur auf allen PCs und Macintosh-Computern wiedergegeben werden kann, sondern auch im VCD-Standard auf vielen DVD-Playern. Diese Video CDs fanden eine weite Verbreitung, vor allem im asiatischen Raum, wo auch entsprechende Standalone-Player zu günstigen Preisen angeboten werden. Die Wiedergabequalität einer CD lässt sich mit der von VHS vergleichen, hat aber den eindeutigen Vorteil, dass sich die CDs bei der Wiedergabe nicht abnutzen und dass man sie wie alle digitalen Medien problemlos verlustfrei vervielfältigen, also kopieren kann.

Die Funktionsweise von MPEG1 beruht auf der technisch einfachsten Variante der MPEG-Kompression, kann keine Halbbilder verarbeiten und hat im VCD-Standard eine beschränkte Datenrate von maximal 1150kbps für Video und 224kbps für Audio.

Der VCD-PAL-Standard: MPEG1, 352x288 Pixel, 25fps, CBR* 1150 kbps; Audio: Layer-2 44100Hz 224 kbps. Nach diesem Standard komprimiert, finden auf einer gewöhnlichen 700MB-CD-Rom bis zu 80 Minuten Video und Audio Platz.

MPEG-2

MPEG2 wurde 1995 eingeführt und baut grundsätzlich auf dem MPEG1 Standard auf, bietet aber durch verbesserte Signalverarbeitungsalgorithmen eine wesentlich höhere Bildqualität. Zusätzlich unterstützt MPEG2 auch die Verarbeitung von Video-Halbbildern. Eine weite Verbreitung findet MPEG2 als Standard-Kompression für DVDs. Im Vergleich zur VCD wurde hier neben der Bildauflösung auch die maximale Datenrate erheblich vergrößert: DVD-PAL-Standard: MPEG-2, 720x576 Pixel, 25fps interlaced, maximal 9800kbps; Audio: maximal 448kbps (5.1 Dolby Digital), wobei die gesamte Datenrate von Video+Audio den Wert von 10,08 Mbit/s nicht überschreiten darf.

Eine wichtige Rolle spielt MPEG2 auch im professionellen Bereich. So wird MPEG2 als Broadcast-Standard für digitales Fernsehen, HDTV (80 Mbit/s) und als Codec für High-End-Schnittsysteme eingesetzt. Diese Formate unterscheiden sich natürlich wesentlich vom DVD-Standard. So wird im Broadcastbereich eine Datenrate von mindestens 15 Mbit/s eingesetzt (4:2:2 Profile at Main Level, GOP < 4) und bei Schnittsystemen arbeitet man bei Datenraten von 50 Mbit/s mit dem so genannten I-Frame-Only Format, das eigentlich dem M-JPEG-Verfahren sehr ähnlich ist, da hier auch keine Interframe-Kompression verwendet wird, um jedes Einzelbild editierfähig zu machen. Der Unterschied zu M-JPEG liegt in den fortschrittlicheren Kompressionsalgorithmen des MPEG-Verfahrens, die selbst bei einer reinen Einzelbildkompression niedrigere Datenraten bei vergleichbarer Bildqualität ermöglichen. Auch bei professionellen Kameras und MAZen findet MPEG2 Verwendung. So arbeiten die Sony-Systeme Betacam SX, Betacam IMX und XDCAM bereits mit MPEG2-Kompression und erreichen damit Qualitäten, die weit über dem Betacam-SP-Niveau liegen.

MPEG-4

MPEG-4 ist der vierte verabschiedete Standard der Moving Picture Experts Group zur Speicherung von multimedialen Inhalten (ISO/IEC-14496). MPEG-4 ist eine Weiterentwicklung des MPEG-1 und MPEG-2 Standards. MPEG-4 bietet Video- und Audiospuren in einem einheitlichen Datenformat. Aber auch Textinformationen und andere multimediale Inhalte können in MPEG-4 Dateien und Streams gespeichert und übermittelt werden. Die erste Version des MPEG-4 Standards wurde bereits im Oktober 1998 verabschiedet. Mittlerweile existieren eine Reihe von Neuerungen innerhalb dieses Standards, etwa die neuen verbesserten Video-Codecs H.264 und VC-9 sowie das Audioformat MPEG-4 AAC.

H.264

Bei H.264, auch bekannt als MPEG-4/AVC (Advanced Video Coding), handelt es sich um einen vom Joint Video Team (JVT) – das von der International Telecommunication Union (ITU) und der Moving Picture Experts Group (MPEG) gebildet wird – geschaffenen Videokomprimierungsstandard.

Die ITU hat die Bezeichnung H.264 für den Standard gewählt. Bei ISO/IEC wird der Standard MPEG-4/AVC (Teil 10) genannt (Dokument ISO/IEC 14496-10).

MPEG-4/AVC erreicht eine Codierungseffizienz, die etwa zwei- bis dreimal höher ist als die des in der Vergangenheit verwendeten H.262-Verfahrens (MPEG-2). Jedoch ist auch die für die Codierung benötigte Rechenleistung etwa dreimal so hoch.

MPEG-4/AVC kann für praktisch alle Videoanwendungen eingesetzt werden. Es wird für das hochauflösende Fernsehen (HDTV), im neuen Rundfunkstandard DVB-T2 für die Standardauflösung, beim mobilen Empfang von niedrig aufgelöstem Video (ATSC-M/H, T-DMB, DVB-H), in Multimedia-Anwendungen und für Videokonferenzen genutzt.

MPEG-4/AVC basiert im Wesentlichen auf den beiden Vorläuferfamilien MPEG-1 und H.261. Es wurden umfangreiche Änderungen vorgenommen, um eine deutlich höhere Effizienz zu erzielen – beispielsweise durch besondere Maßnahmen für eine schnellere Decodierung. Der resultierende Prozess ermöglicht eine kosteneffiziente Implementierung in Endgeräten.

Zur Verbesserung der Interoperabilität wurden die Konzepte des Profils und Levels eingeführt. Ein Profil definiert die unterstützten Funktionen und ein Level legt einen Grenzwert für eine Variable wie z. B. die Bildauflösung fest.

NTSC-Format

Diese unter anderem in den USA gültige Fernsehnorm unterscheidet sich von dem bei uns gängigen PAL-Format hauptsächlich durch folgende Eigenschaften: 525 Fernsehzeilen, davon 480 sichtbar. 60 Halbbilder pro Sekunde. Die Farbdarstellung erfolgt mittels YIQ.

Overlay

Unter Overlay versteht man die Darstellung eines Video- oder Fernsehbildes innerhalb eines Fensters auf der Arbeitsoberfläche eines Computers. Früher wurde das Bild dabei auf analoger Basis in das Fenster eingestanzt. Heute erfolgt das Overlay meistens über eine "direkt draw"-fähige Grafikkarte, die die Bildinformation in digitaler Form über den PCI-Bus erhält.

PAL-Format

PAL steht für "Phase Alternating Line" und ist die in Deutschland gültige Fernsehnorm. Sie definiert 625 Zeilen, wovon 576 Bildinformation in sich tragen. Auf normalen Fernsehern sind allerdings meist noch weniger Zeilen sichtbar, was beim Videoschnitt Cropping  ermöglicht. Die Bildwiederholrate  beträgt 50 Halbbilder pro Sekunde. Die Farben werden im YUVsFarbraum  übertragen.

Streaming

Die Übertragung von Video im Internet in Echtzeit. Es wird im Gegensatz zur „progressiv Download“-Übertragung ein Streamingserver benötigt, der auf Anfrage Datenpakete versendet. Gestreamte Videos werden nicht als ganze Dateien auf den empfangenden Systemen abgelegt, sondern nur kurzzeitig im RAM-Speicher in Einzelpaketen gepuffert. So kann innerhalb eines Videoclips gesprungen werden, ohne dass die dazwischenliegenden Daten heruntergeladen werden müssen.

VBR (Variable Bit Rate)

Variable Bit Rate. Im Gegensatz zur CBR (Constant Bit Rate) können hier komplexere Teile z.B. eines Filmes mit einer höheren Bitrate als einfache Teile komprimiert werden, so dass die durchschnittliche Bitrate zwar gleich bleibt, aber das optische Ergebnis besser als bei CBR ist.