Zwei Dinge werden hier durcheinander gewürfelt.
Die Bildauflösung und die Anzahl der Pixels.
Bei der Erhöhung der Pixelanzahl versucht man durch den Effekt der Überabtastung zu nutzen.
Überabtastung erlaubt es die Anforderungen an das analoge Tiefpassfilter drastisch zu reduzieren in dem die steilflankige Bandbegrenzung auf ein präzises Digitalfilter hoher Ordnung verlagert wird.
Somit braucht man weniger steile analoge Filter vor dem Abtasten.
Nach der Abtastung wird dann das digitale Filter angewendet und gleichzeitig die Abtastfrequenz reduziert.
Wenn man eine höhere Abtastfrequenz wählt erhält man allerdings keine zusätzlichen Informationen.
Man nutzt es, um möglicher Moirebildung vorzubeugen, bzw. sie höher zu legen.
Nur bei 4K ist die Abtstfrequenz ohnehin drastisch höher, bzw. durch die 4-Sensorteile wird der Prozess parallelisiert, wobei durch die zusätzlichen Zusammenführungsprozesse der Sensorteile, die Rechnerleistung fast kein Oversampling mehr zulässt.
Der zweite Punkt besteht im Downscaling des Signal.
Hier werden Werte von Pixels zusammengeführt (meistens auf unterschiedliche Art gemittelt).
Da gibt es gute und schlechte Algorithmen aber keiner kann zaubern.
Sie mischen immer Pixelwerte. Das Zielpixel weicht von den Originalwerten immer ab, was immer einer Bildveränderung entspricht und damit einer Bildverschlechterung denn anders, als in optischen Verfahren, in denen die Bildpunkte theoretisch bis auf die Wellängen verkleinert werden können aber die Lichtenergie erhalten bleibt, bleibt die Pixelgrösse in Digitalverfahren identisch.
Es werden nur weniger Pixels und die kumulierte Lichtenergie nimmt mit der Anzahl der Pixel ab.
Cropped man aus den 4k ein 2K Bild, so wird dies (im Idealfall) nur so gut sein, wie die Vorlage.
Einziger Vorteil, Pan & Scan innerhalb der Pixelmenge ist möglich. Bildverbesserung allerdings nicht.
Wie können mehr Informationen schlechter sein als weniger?
Ganz einfach ... Kameras haben schon heute Probleme, alle 2K Informationen zu verarbeiten und schaffen dies nur (mehr schlecht als Recht) über Bildanalysen und priorisierte Prozesse.
Bei 4K wird das nicht besser sondern deutlich schwieriger.
Was also gemacht wird, ist beispielsweise den Sensor vierteln und parallel verarbeiten.
Dann kann theoretisch jeder einzelne (Teil-Sensor) wieder so gut arbeiten, wie bei 2K aber die Sensoren wissen immer noch nichts voneinander und es kommen neue Artefakte hinzu (abgerissenen Artefakte an den Kanten und Matchingprobleme).
Deswegen sind mehr Informationen noch lange nicht besser, als weniger Informationen.