suche ich immer noch nach ALLEN Ausgaben der "Aktuellen Schaubude",
Carlo von Tiedemann sei gegrüsst.
Der hat noch in Bosch KCU mit Schneider parfokal-Zoom dran geguckt. Das waren Zeiten! Ich bin da eher der Wilhelm Wieben Typ.
Die Bilder der beiden haben eins gemeinsam:
576 Bildzeilen interlanced - und nach Walter Bruch in jeder Zeile die Farbkodierung umgedreht.
Hä? Du unterstellst mir schon wieder "Durchschnitt". 1TB SSD hatte ich nie, ....
Nein, ich unterstell da nix. Es geht mir nicht um das was der Konsument hat. Es geht darum wie man produziert.
Also die Maschinen die das echte Bild zuallererst eingefangen hat - am Set, im Studio.
Für eine Arria Alexa nutzt man gerne SXR Capture Drives. Das ist nicht SoHo Technik. Mit den Dingern kannst du am Set Doppelkopf spielen und die kosten ein Schweinegeld.
ich bin gleich auf 2*2 TB bei diesem Rechner eingestiegen, ... Mac Mini von 2019... Atari ST
Es geht nicht um den Speicherplatz - Es geht darum so viel Bildinformationen laufend behandeln zu können: Bandbreite.
Der Atari ST schaffte 320 × 200 Bildpunkte in 16 Farben. Das war damals Spitzenklasse für Heimcomputer. Reicht das um solche Dinge wie den back glow vom Miami Vice Schriftzug zu animieren? Eine SGI Iris 1000 hatte RGB+sync Ausgang, und dank des sync konnte man live ausgeben. BTW: Der Rest des Intros war nicht animiert: viel zu teuer, trotz der quasi fehlenden Budgetgrenzen. Gefilmt wurde auf 35 mm mit Panaflex / Panavision. Das kann man in 4k scannen ohne dass es kornig wird. Dann siehst du aber jeden Fehler des Fokuspullers.
Ich bringe es inzwischen auf 63 Jahre und mein MONITOR steht eine Armlänge vor mir, und der hat natürlich 4K/27 Daumen Diagonale. Der Monitor ist mein Hauptsichtgerät für 4K-Medien.
Sieht du auf den 27'' in 4k etwas anderes als Zeilenmatsch einer alten MAZ Aufzeichnung, wenn du dir da eine Folge mit Carlo von Tiedemann ansiehst*?
Die Kameras im Studio hat damals Halbbilder mit 288 Linien gefangen - mehr konnte man nicht übertragen - beim Konsumenten stand ein Gerät, das genau die 288 Linien wiedergab.
Heute nutzt du von deinem 4k Monitor im Schnitt 7,5 Linien um eine Linie der Kamera darzustellen. Da es Bruchteile gibt muss nochmal interpoliert werden, dabei wird eine Grafikkarte von heute nicht mal warm, nur gibt es halt ein Artefakt mehr.
(*Keiner bezweifelt das es einen Wert haben kann sich das anzusehen - Aufnahmen der Callas auf Wachsrolle werden wiederveröffentlicht - aber warum als 24bit/48 MHz Sample?).
4K... Als Stadtnetzbetreiber (Glasfaser in JEDEM Haus der Stadt) ist das kein Problem.
https://www.wilhelm-tel.de/kabelfernsehen-anbieter
Eben. Mein Reden. Die Glasfaserbetreiber skalieren sich das hoch lassen das digitale Bügeleisen drüberlaufen und schicken z.B. Carlo von Tiedemann in 4k zu den Kunden. Carlo von Tiedemann sass aber nie in der aktuellen Schaubude nie vor einer 4k Kamera. Die vielen Bildinformationen sind herbeigelogen.
"Barbie the movie" wurde auf Arri Alexa 65 in voller 6,5k Auflösung geschossen. Das war eine "King og the Hill" Produktion in 2023. Die Münchner verkaufen ihre sie noch nicht einmal. Von dem Luxus an so etwas den Finger zu legen kriegen Cineografen feuchte Träume.
"Ben Hur" wurde auf 65mm Film mit anamorphischen Linsen geschossen. Das war eine "King og the Hill" Produktion in 1959. Das kann man sorglos nach 6,5k scannen.
Analoge TV Produktionen die auf MAZ gezogen wurden... sorry das hat historischen aber keinen cineastischen Wert.
Deshalb: Wenn du auf die alten Produktionen die auf 16 mm oder gar MAZ geschossen wurden scharf bist - was willst du dann mit 4k?