Oficjalnie nic nie wiem (nie szukałem), ale generalnie jak tak sobie myślę, to już obecnie zarówno kontener MKV jak i specyfikacja kompresji AVC nie robią problemów w zapisie obrazu 3D. Jest tak, gdyż zapis 3D tak na prawdę wymaga więcej od strony sprzętowej (odpowiednie kamery, odpowiedni wyświetlacz, okulary, synchronizator, itd.) niż programowej. Gotowy obraz 3D może być skompresowany generalnie każdym kodekiem i zapisany w dowolnym kontenerze (umożliwiającym zapis z zalecanym FPS 120).
Chyba, że pytasz o MKV i AVC zoptymalizowane pod 3D.
Tu wydaje mi się, że zmiana w MKV polegałaby na możliwości dania 2 strumieni wideo, które (w zależności od wybrania trybu) splitter mkv wyświetla naprzemiennie z prędkością FPS 120 (tryb 3D) lub też tylko jeden z FPS 2x mniejszym (tryb 2D). To chyba jedyna optymalizacja od strony kontenera i splittera MKV jaka przychodzi do głowy.
Natomiast optymalizacja kompresji filmów 3D może wymagać już znaaacznie więcej. Ale to też by zależało od sposobu wyświetlania (czy za tworzenie naprzemiennego obrazu odpowiedzialny jest splitter, czy dekoder). Jeśli splitter (patrz wcześniej), to kompresja raczej byłaby zwykła. Dałoby to dużą elastyczność i kompatybilność z urządzeniami nie wyświetlającymi 3D (możliwość wyboru trybu), ale kosztem dużego rozmiaru (2 strumienie wideo) i wydajności (praktycznie jak dekodowanie 2 niezależnych filmów + wzajemne przeplatanie ich klatek). Jeśli zaś dekoder to jest tu duuużo do usprawnienia, ale i dużo z tego korzyści. Po pierwsze zamiast zapisywać 2 strumienie (obraz z 2 obiektywów) o bardzo zbliżonym podobieństwie, można od razu zapisać jeden zawierający naprzemienne treści (czyli generalnie tak jak teraz jest to robione), z tym że zoptymalizować algorytmy kompresji (głównie detekcji ruchu i przemieszczeń obiektów), gdyż taki obraz miałby dość charaktersytyczne różnice pomiędzy klatkami miedzy sobą następującymi.