In diesem Artikel lernen Sie einige gängige Befehle zum Konvertieren und Bearbeiten bestimmter Eigenschaften von Mediendateien kennen. Wir haben versucht, äquivalente Vorgänge für alle Verfahren zu zeigen, aber nicht alle Vorgänge sind in beiden Anwendungen möglich.
In vielen Fällen können die gezeigten Befehle in einem einzigen Befehlszeilenvorgang kombiniert werden, wenn sie tatsächlich verwendet werden. Sie können die Bitrate einer Ausgabedatei beispielsweise nicht in demselben Vorgang wie eine Dateikonvertierung festlegen. In diesem Artikel werden diese Vorgänge aus Gründen der Übersichtlichkeit häufig als separate Befehle aufgeführt.
Die Konvertierung erfolgt mit diesen Anwendungen:
Displaymerkmale
Sowohl Shaka Packager als auch FFmpeg können verwendet werden, um den Inhalt einer Mediendatei zu prüfen und dann die Eigenschaften eines Streams anzuzeigen. Beide bieten jedoch unterschiedliche Ausgaben für dasselbe Medium.
Merkmale der Verwendung von Shaka Packager
packager input=glocken.mp4 --dump_stream_info
Die Ausgabe sieht so aus:
File "glocken.mp4":
Found 2 stream(s).
Stream [0] type: Video
codec_string: avc1.640028
time_scale: 30000
duration: 300300 (10.0 seconds)
is_encrypted: false
codec: H264
width: 1920
height: 1080
pixel_aspect_ratio: 1:1
trick_play_factor: 0
nalu_length_size: 4
Stream [1] type: Audio
codec_string: mp4a.40.2
time_scale: 48000
duration: 481280 (10.0 seconds)
is_encrypted: false
codec: AAC
sample_bits: 16
num_channels: 2
sampling_frequency: 48000
language: eng
seek_preroll_ns: 20833
Merkmale bei der Verwendung von FFmpeg
ffmpeg -i glocken.mp4
Die Ausgabe sieht so aus:
Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'glocken.mp4':
Metadata:
major_brand : isom
minor_version : 512
compatible_brands: isomiso2avc1mp41
encoder : Lavf57.83.100
Duration: 00:00:10.03, start: 0.000000, bitrate: 8063 kb/s
Stream #0:0(eng): Video: h264 (High) (avc1 / 0x31637661), yuvj420p(pc), 1920x1080, 7939 kb/s, 29.97 fps, 29.97 tbr, 30k tbn, 59.94 tbc (default)
Metadata:
handler_name : VideoHandler
Stream #0:1(eng): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 127 kb/s (default)
Metadata:
handler_name : SoundHandler
At least one output file must be specified
Demux (getrennte) Audio- und Videostreams
Shaka Packager erfordert beim Konvertieren von Dateien ein Demuxing. Dies ist auch für die Verwendung von Medien-Frameworks erforderlich.
Shaka Packager demux
MP4
packager input=myvideo.mp4,stream=video,output=myvideo_video.mp4
packager input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a
Oder:
packager \
input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a
WebM
packager \
input=myvideo.webm,stream=video,output=myvideo_video.webm \
input=myvideo.webm,stream=audio,output=myvideo_audio.webm
FFmpeg-Demuxing
MP4
ffmpeg -i myvideo.mp4 -vcodec copy -an myvideo_video.mp4
ffmpeg -i myvideo.mp4 -acodec copy -vn myvideo_audio.m4a
WebM
ffmpeg -i myvideo.webm -vcodec copy -an myvideo_video.webm
ffmpeg -i myvideo.webm -acodec copy -vn myvideo_audio.webm
Audio- und Videostreams neu mux (kombinieren)
In einigen Fällen müssen Sie die Audio- und Videodaten wieder in einem einzigen Container kombinieren. Vor allem, wenn kein Medien-Framework verwendet wird. Das kann FFmpeg recht gut verarbeiten und wird von Shaka Packager derzeit nicht unterstützt.
ffmpeg -i myvideo_video.webm -i myvideo_audio.webm -c copy myvideo.webm
Eigenschaften ändern
Bitrate
Für FFmpeg können wir dies bei der Konvertierung in .mp4
oder .webm
tun.
ffmpeg -i myvideo.mov -b:v 350K myvideo.mp4
ffmpeg -i myvideo.mov -vf setsar=1:1 -b:v 350K myvideo.webm
Abmessungen (Auflösung)
ffmpeg -i myvideo.webm -s 1920x1080 myvideo_1920x1080.webm
File type
Shaka Packager kann .mov
-Dateien nicht verarbeiten und kann daher nicht zum Konvertieren von Dateien aus diesem Format verwendet werden.
.mov
nach .mp4
ffmpeg -i myvideo.mov myvideo.mp4
.mov
nach .webm
ffmpeg -i myvideo.mov myvideo.webm
Audio und Video synchronisieren
Damit Audio und Video während der Wiedergabe synchronisiert werden, fügen Sie Keyframes ein.
ffmpeg -i myvideo.mp4 -keyint_min 150 -g 150 -f webm -vf setsar=1:1 out.webm
MP4/H.264
ffmpeg -i myvideo.mp4 -c:v libx264 -c:a copy myvideo.mp4
Audio für eine MP4-Datei
ffmpeg -i myvideo.mp4 -c:v copy -c:a aac myvideo.mp4
WebM/VP9
ffmpeg -i myvideo.webm -v:c libvpx-vp9 -v:a copy myvideo.webm
Audio für WebM
ffmpeg -i myvideo.webm -v:c copy -v:a libvorbis myvideo.webm
ffmpeg -i myvideo.webm -v:c copy -v:a libopus myvideo.webm
On-Demand-Videos und Livestreaming
In diesem Artikel werden wir zwei Arten von Streamingprotokollen vorstellen. Der erste ist Dynamic Adaptive Streaming over HTTP (DASH). Dies ist ein Streamingverfahren mit adaptiver Bitrate und eine webstandardsbasierte Methode zur Präsentation von Video-on-Demand. Der zweite ist HTTP Live Streaming (HLS), der Standard von Apple für Livestreaming und Video-on-Demand für das Web.
DASH/MPD
In diesem Beispiel wird die MPD-Ausgabedatei (Media Presentation Description) aus den Audio- und Videostreams generiert.
packager \
input=myvideo.mp4,stream=audio,output=myvideo_audio.mp4 \
input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
--mpd_output myvideo_vod.mpd
HLS
In diesen Beispielen wird aus den Audio- und Videostreams eine M3U8
-Ausgabedatei generiert, bei der es sich um eine UTF-8-codierte Multimediaplaylist handelt.
ffmpeg -i myvideo.mp4 -c:a copy -b:v 8M -c:v copy -f hls \
-hls_time 10 -hls_list_size 0 myvideo.m3u8
ODER:
packager \
'input=myvideo.mp4,stream=video,segment_template=output$Number$.ts,playlist_name=video_playlist.m3u8' \
'input=myvideo.mp4,stream=audio,segment_template=output_audio$Number$.ts,playlist_name=audio_playlist.m3u8,hls_group_id=audio,hls_name=ENGLISH' \
--hls_master_playlist_output="master_playlist.m3u8"
Jetzt, da Sie nun ein gutes Verständnis für die Konvertierung von Dateien haben, können wir auf dem aufbauen, was wir in diesem Artikel gelernt haben, und uns als Nächstes über die Medienverschlüsselung informieren.