Ett dussin timmar Black Ops 3-testning slutfördes och flyttade till nästa sekventiellt inkrementerade videospel: Fallout 4. Det blev ett större antal i slutet. Bethesda har en av de längsta utvecklingslivscyklerna i branschen, men kompanyspelet är också bland annat det längsta varaktigt tack vare moddernas odödliga ansträngningar. Det hjälper att modding community kan fylla luckor i Bethesdas kod eller bygga helt nya spel från den starka grunden som framgår av veteran RPG-teamet. Vår Fallout 4 spelrecension spelanalys är redan live på hemsidan. om det är vad du letar efter. Detta inlägg ser uteslutande och djupt på Fallout 4s grafikinställningar och prestanda på datorn. Nedanstående Fallout 4 PC benchmark tester FPS prestanda över nVidia och AMD GPUs, inklusive GTX 750 Ti, 960, 970, 270X, 285, 390X och många fler. VRAM och minneskonsumtion ses också löst nedan, förhoppningsvis fastställer en baslinje för de bästa videokorten för Fallout 4 på PC. Eftersom modverktyg inte existerar och säkert inte gjorde några mods under vår pre-release-testning, redovisar vi inte det oundvikliga prestationsfall som skapats av framtida grafikmodeller. Fallout 4 Max Graphics Inställningar 4K60 Gameplay Video Förklara Fallout 4s Graphics Inställningar Fallout 4s inställningar är ganska enkla. Någon som är bekant med Skyrim (och Fallout 3. och New Vegas) är redan bekant med Fallout 4-motorn, inställningsskärmen och alternativen. Fallout 4 körs på samma motor som Skyrim gjorde och dess. ini-filer innehåller många av samma inställningar, så de flesta av. ini-tweaking från Skyrim och New Vegas överförs till Fallout 4. Anti-Aliasing: Glattar objekt och textur gränser genom att samplera pixlar flera gånger för färger. TAA och FXAA är båda tillgängliga. FXAA förekommit tidigare i Skyrim och förblir densamma i Fallout 4. Spelare som klagar över blurriness kan vilja se till att FXAA inte är aktiverat. Anisotrop filtrering: Texturfiltreringsteknik som säkerställer en mer enhetlig konsistensapplikation mot bortfallspunkter, t. ex. icke-sneda betraktningsvinklar. Ett enkelt exempel skulle vara en väg med en prickad vit linje i mitten: Högre anisotropa filtreringsprovtalet kommer att se till att den prickade linjen förblir konsekvent i applikationen på ytan när vägen närmar sig sin försvinnande punkt. Inaktivera AF betyder att linjen blir alltmer suddig och felaktig eftersom den avstånd från spelaren är ett resultat av applikationsvinkeln. Detalj: Konfigureras till låg, medium, hög och ultra. Avancerad flik ger individuell inställningskontroll. Visningsläge: Vindläge, helskärm och gränslösa lägen tillgängliga. Texturkvalitet: Dikter upplösningen av texturer som tillämpas på objekt i spelet. Lägre kvalitetsinställningar tar bort grus, tydligt djup och finare detaljer på ytor. Signage, till exempel, kan gå från att innehålla faktiska, läsbara ord för att vara en suddig röra vid Low. Detta gäller för de flesta spel med upplösning av texturupplösning. Du kan se ett exempel på texturkvalitetsskalning här: Black Ops III. Witcher 3. GTA V. Skuggkvalitet: Upplösningen och detaljerna för skuggor som kastas av objekt i spelet. Fallout 4 saknar en betydande mängd skuggdetaljer som finns i de flesta andra spel, även vid Ultra, och gör inte skuggor för de flesta föremål eller för många statiska element. Ökad skuggkvalitet kommer att smidiga skugggränser och minska effekterna av marscherande pixlar när ett dynamiskt objekt kastar en skugga, till kostnaden för ytterligare GPU-cykler. Shadow Distance: Avståndet vid vilket skuggor görs. Skuggor kommer in och ut beroende på spelarens avstånd som ett medel för större LOD-skalning. Att minska detta kommer att förbättra prestanda, särskilt i stora områden med många skuggförskjutna objekt. Dekalkvalitet: Dekaler är bäst att tänka på som klistermärken som blir applicerade på miljön eller objekten som spelningen utvecklas. Blood, bullet kontaktpunkter och bränt mark från sprängämnen är alla dekaler. Om du ändrar denna inställning bestäms hur länge ett dekal stannar och hur många ackumuleras, tillsammans med den allmänna dekaldetaljen. Belysningskvalitet: Ändrar pålitligheten av kaskad effekter och ljus närvaro. Godrays Kvalitet: Kvalitet, räkning och allmän närvaro av ljusstrålar som är nedgjutna ovanifrån (kallade godrays), särskilt när det gäller ljus som skiner genom andra objekt halvtransparenta ytor (fönster), genom tät geometri (trädgrenar) och så vidare. Fältets djup: Tillämpar en bokeh-filmeffekt på skärmutrymmet som anses vara out-of-focus för spelarna POV. Ambient Occlusion: Reglerar ljus och skuggning applikation till intilliggande ytor. Mest märkbara på undersidan av lövverk och växtliv. Om du avaktiverar omgivande ocklusion kommer du att ta bort en betydande mängd skuggning från spelet, vilket redan saknas, och förenklar sättet som ljuset interagerar med vissa material och angränsande ytor. Skärmutrymme Reflektioner: kryssrutan växla. Skärmens rymdmedvetna reflektioner (styrs delvis av omgivande ocklusion) kommer att uppstå när ljus interagerar med reflekterande material metaller, glansiga överdrag, fönster etc. Våthet: Kryssrutan växlar. Aktiverar eller inaktiverar objekt som kan bli våta från att stöta på vatten. Den våta effekten applicerar en glans på ytan av det drabbade objektet. Regnutsläpp: Inaktivera detta när du upplever laga speciellt under regnväder. Dikterar om regn är föremål för ocklusionseffekter. Motion Blur: Självförklarande inaktivera om du vill ha en mindre suddig upplevelse. Linsflare: Michael Bays favorit a-växel som aktiverar eller inaktiverar linsflare när kameran befinner sig i vissa vinklar mot ljuskällor. Objektnedtonning: Avstånd där icke-skådespelare föremål som skyltar, papperskorgen eller andra element som inte är föremål börjar försvinna från kameran eller pop-in för att visa. Skådespelare Fade: Avstånd där aktörsobjekt (NPC) pop-in eller försvinna från kameravy. Gräsavverkning: Som ovanstående två, men för gräs sänker detta först om de släpar när de reser genom hillsgrassy ödemarker. Objektet Fade: Avstånd på vilka tappade eller placerade föremål pop-in eller blekna från visning. Distant Object Detail: LOD av borta objekt. Att öka denna inställning ökar synlig geometrisk komplexitet (maskekvalitet) av objekt långt ifrån spelaren. Objekt Detalj Fade: Hur snabbt grittier detaljer av objekt blekna bort men inte själva objektet från spelarens vy. LOD-skalning som gör att objektet kan förbli i sikte utan att helt ta bort det. Fallout 4 PC-videokort Benchmark - 980 Ti, 970, 390X, 270X, Mer videotestmetodik Vi testade med vår 2015 multi-GPU testbänk, detaljerad i tabellen nedan. Vårt tack till stödjande maskinvaruförsäljare för leverans av några av testkomponenterna. NVidias unreleased Fallout 4 drivrutiner användes för testning, inklusive Fallout 4 optimeringar. De senaste AMD Catalyst-drivrutinerna (15.11 beta) användes för testning. Spelinställningarna konfigurerades till Ultra med ultraöverträngningar där inte vald, Medium och Låginställningar vid 1080p, 1440p och 4K-upplösningar. När vi bestämde vilka inställningar som gav en rimlig belastning för lämpliga grafikkort, smidades vi fram för att testa de konfigurationerna på vår serie GPU: er. Varje scenario testades i 30 sekunder identiskt och upprepades tre gånger för paritet. Vi testade i Diamond City, den första stora township som spelaren når. Vi hittade delar av Diamond City för att producera mycket intensiv belastning, med en prestandaklyft så bred som nästan 60 i vissa fall. Detta gör Diamond City till en dåligt optimerad region i spelet som representerar ett blandat belastningsscenario, vår testkörning börjar med att kameran pekar mot en starkt ockuperad region i staden och rör sig sedan runt en mycket mindre intensiv korridor. Resultatet är en blandad GPU-belastning som är 100 reproducerbar och representativ för spelupplevelser i verkligheten. Vår video ovan visar kursen vi använde. Detta valdes för dess reproducerbarhet och tillförlitlighet under testet. Benchmarks som inte exakt efterliknar vår kurs är olika, beroende på vilket område av spelet de utfördes. GN Test Bench 2015 Genomsnittlig FPS, 1 låg och 0,1 låga tider mäts. Vi mäter inte maximala eller minsta FPS-resultat eftersom vi anser att dessa siffror är rena avvikare. Istället tar vi medeltal de lägsta 1 av resultaten (1 låg) för att visa verkliga, märkbara dips, då tar vi i genomsnitt de lägsta 0,1 av resultaten för svåra spikar. Nedanstående GPU: er testades: Testade inställningar Vi testade spelet med dessa inställningar: 4K, allt satt till Ultra (max inställningar). 1440p, allt inställt på Ultra (max inställningar). 1080p, allt inställt på Ultra (max inställningar). 1080p, allt satt till medium. 1080p, allt satt till lågt. FPS Caps. ini Tweaking i Fallout 4 Benchmarks arent möjligt med låsta framerates. För att noggrant kunna jämföra de absoluta prestandavärdena för grafikkort, inaktiverar vi alla ramhastighetslåsningstekniker under testningen. Det inkluderar G-Sync och FreeSync, V-Sync. och allt annat ligger under spelets huva. I Fallout 4 var vi tvungna att navigera till documentsmy gamesfallout 4Fallout4Prefs. ini och sätta iPresentInterval till 0. Detta inaktiverar frameratlocket och verkar därför eliminera falskt musbeteende. Den här filen blir överskriven omedelbart efter att ha startat spelet igen, men så alla som lånar vår metodik till bänken kommer att behöva ställa in filen för att läsa bara. Det finns en anpassad inställningsfil som Id imagine borde fungera som en åsidosättning till kärnan. ini-filen, men jag är inte säker på hur jag använder den, så vi gick med läs-bara-metoden. Fallout 4 RAM VRAM-konsumtion Vid preliminär användning av resursutnyttjande fann vi att 1080max-inställningarna kräver ett minne på cirka 4,8 GB (2,4 GB arbetssätt eller fysiskt RAM), vilket är lite mindre än ett fjärdedel av det vi såg Black Ops åtar. Stor skillnad. Men Fallout är det rimliga här, säkert. Spelare kan med rimlighet distribuera 8GB (eller så lågt som 4GB, men det betyder att driva det med bakgrundsuppgifter) för systemminne för Fallout 4. De samma 1080max-inställningarna utnyttjas under 3 GB VRAM, allmänt närmare 2,6-2,9 GB. Initial anti-Aliasing Other Settings Findings Vi gjorde några ganska oofficiella pre-bench anti-alias FPS mätningar för att bestämma, internt, huruvida vi ska aktivera FXAATAA vid testning Fallout 4. Vi såg generellt minimala skillnader (mindre än 3, i de flesta fall ), även vid 4K, och valde att lämna TAA för Ultra-riktmärken. Vi upptäckte också, som ovan, att inställningen Shadow Distance till mer restriktiva värden (Medium, nämligen) genast såg påtagliga FPS-boons inom intervallet 16.87. Detta skulle vara en av de första ställena att gå för alla som försökte förbättra prestanda, men det var kvar vid sin högsta inställning för våra Ultra-tester. Fallout 4 4K Ultra Benchmark GTX 980 Ti mot 390X, 970, 290X, Mer Jag var lite chockad över att 980 Ti och 390X kämpade så mycket med Fallout 4. Varken kortet träffar den magiska 60FPS-metriska, men vi har funnit att i allmänhet spelet är spelbart inom 45-50FPS-serien (till skillnad från snabba skott, t. ex. Black Ops III). Vanliga läsare kommer att märka att Fallout 4 är nästan lika krävande som Black Ops III, ett spel som objektivt är tekniskt överlägsen i grafikavdelningen. Saken med Fallout är att det är ett öppet världsspel, så visningsavstånden går väsentligt högre theres mycket mer att se på längre räckvidd. Även på Black Ops största kartor finns det så mycket närasynt obfuscation (byggnader, prefabricerade element) som det inte räcker fjärran så långt in i avståndet som Fallout. Detta är den stora metodologiska skillnaden i genomförandet av varje spel. Men Fallout verkar fortfarande alltför krävande för ett spel av sitt utseende. Som det står nu är spelet effektivt ospelbart på de flesta single-GPU-lösningar på 4K. Det finns ett argument att göra att 46FPS AVG kan spelas, men det är en bra linje att gå. Fallout 4 1440p Ultra Benchmark GTX 980 Ti mot 390X, 970, 290X, 960, Mer Som förväntat visar AMD sin skillnad i de högre upplösningstesterna. R9 390X landar passande mellan GTX 970 och MSI GTX 980. Fallout 4 spelas rimligt vid 1440p på kort av likvärdig eller överlägsen klass till R9 290X och GTX 970. Korten 285 och 960 kan inte klara av cykel - och bandbreddsmättnad av högre resolutioner. Fallout 4 1080p Ultra Benchmark GTX 980 Ti vs 390X, 970, 290X, Mer Först och främst: Den 1080p GPU benchmarken, som du får se, placerar en GTX 970 över en R9 390X med ca 5,1. Vi förväntade oss inte att detta skulle hända i Fallout 4 och presenteras för att validera resultaten. Vi trodde att vi hittade inställningen som skapade 970-talets ledning när vi anpassade varje alternativ, så småningom märkte att Shadow Distance påverkat resultatet med nästan 20FPS tillräckligt för att stänga klyftan men det reproducerade sedan mitt första resultat. När du ställer in skuggavstånd till sin lägsta inställning (medium) på både R9 390X och GTX 970, lägger resultatet fortfarande 970 med ett par ramar före 390X. Egentligen är det nästan samma 5 gapet. Det är inte Shadow Distance, då. Vi försökte alla andra inställningar och kunde inte hitta någon som skapade en djup prestationsfrekvens för AMD när det inte heller gjorde det för nVidia. Det får mig att tro att det här är antingen en speloptimering eller, troligtvis, en drivrutinsoptimeringsproblem. Vi kontaktade AMD sent i förra veckan på jakt efter den tilsynelatande oundvikliga Fallout 4 dag-en-förare, men fick höra förarna var färdiga ännu. Det är möjligt att 390X kommer att överstiga GTX 970 vid 1080p med en uppdatering för drivrutiner eller speloptimering, men dataen (som nedan) är hur den står just nu. 1080ultra-inställningarna tillåter Fallout 4 att sträcka sig ner till 225 GTX 960 och R9 285 (206) regionen, vilket också skulle inkludera (inte närvarande) R9 380. GTX 950 är inte tillräckligt för att driva 1080ultra, 960 kan få det att fungera med lite ljus tweaking eller bara genom att acceptera 50FPS, och R9 285 fungerar vid 54FPS genomsnitt. R9 285 tankar sina 0,1 låga framtidstider ner till 30 ibland, men det är ingenting som förstör upplevelsen. Baserat på dessa diagram, kräver Playout 4 vid 1080max cirka en GTX 960 (225) eller R9 380 (230) för bästa fluiditet under höga arbetsbelastningar inom spelet. Tuning-inställningarna till High gör att GTX 950 (170) och avlägsna R9 270X (motsvarande: R7 370 för 150) kan komma åt det spelbara FPS-området. I high-end är GTX 980 Ti, 980, 970, R9 390X och R9 290X alla kapabla artister som regelbundet överstiger 60FPS med 1080ultra. Fallout 4 är inte den typ av spel där du behöver mer än 60FPS, men speciellt för att den fick en FPS-lås capping framerates till 60 som standard. Fallout 4 1080p Medium Låg Benchmarks GTX 750 Ti, R7 270X Bara för de på korta kort. Vi spenderade inte för mycket tid här. Slutsats: De bästa videokorten för Fallout 4 Fallout 4 är ett udda spel. Det ser inte på allt imponerande jag menar, titta bara på ovanstående skärmdump. Du kan bokstavligen räkna polygoner i det staketet mindre än 40, säkert. Staketet är en platt barriär med noll djup. Spelet är objektivt daterat i sin visuella presentation. Det gör inte spelet dåligt, vår recension föreslår faktiskt annars, men det gör dess grafik mindre imponerande av moderna standarder. Vi förväntar oss att prestanda ska vara fantastisk med tanke på denna förenklade estetik, men Fallouts stora visningsavstånd och skuggapplikation tar mycket av det borta. För alla som försöker uppnå en högre framerate än representerad här, föreslår vi att du först sänker Shadow Distance och sedan tabbar några av inställningsavståndsinställningarna med blygsamma belopp. Hur som helst, att spela på 1080ultra i värsta fall, du vill ha något som 230 R9 380 (ej närvarande) eller GTX 960 (225). En R9 390X fungerar bra för 1440p och skulle vara vår go-to, förutom att välja nVidias GTX 980 vid uppdatering: Se vårt volymljusriktmärke här. 4K bara är inte avsedd för single-GPU-lösningar just nu, särskilt inte vid max inställningar och avstånd. När det gäller lägre inställningar kan någon bekväm kompromiss med Ultra for Medium ta GTX 950 för en solid 60FPS-upplevelse. Användare med låga inställningar kan göra ett 750 Ti-arbete i en nypa, men R9 270X hanterar sig utmärkt. 270X är nu avlägsnat, men har effektivt ersatts med R7 370. Om du gillar vår täckning, var vänlig överväga att stödja oss på Patreon. - Steve Lelldorianx Burke. Ytterligare benchmarking av Mike Gaglione. Ramesh Raskar. Docent, MIT Media Lab Project Director (raskar (at) mit. edu) Moungi G. Bawendi. Professor, Kemiska institutionen, MIT Andreas Velten. Postdoktorand, MIT Media Lab (velten (at) mit. edu) Everett Lawson. MIT Media Lab Amy Fritz. MIT Media Lab Di Wu. MIT Media Lab och Tsinghua U. Matt Otoole. MIT Media Lab och U. of Toronto Diego Gutierrez. Universidad de Zaragoza Belen Masia. MIT Media Lab och Universidad de Zaragoza Elisa Amoros, Universidad de Zaragoza Vi har byggt en bildlösning som gör att vi kan visualisera ljusförökning. Den effektiva exponeringstiden för varje ram är två trillioner av en sekund och den resulterande visualiseringen avbildar ljusrörelsen med ungefär halv trillion bilder per sekund. Direkt inspelning av reflekterat eller spritt ljus vid en sådan bildhastighet med tillräcklig ljusstyrka är nästan omöjlig. Vi använder en indirekt stroboscopic metod som registrerar miljontals upprepade mätningar genom noggrann skanning i tid och synpunkter. Därefter omordnar vi data för att skapa en film med en nanosekund lång händelse. Enheten har utvecklats av MIT Media Lab8217s Camera Culture-grupp i samarbete med Bawendi Lab i Kemiska institutionen vid MIT. En laserpuls som håller mindre än en trilionde sekund används som en blixt och det ljus som återkommer från scenen samlas in av en kamera med en hastighet som motsvarar ungefär halv trillion bilder per sekund. På grund av mycket korta exponeringstider (ungefär två triljoner av en sekund) och ett snävt synfält på kameran fångas videon på flera minuter genom upprepad och periodisk provtagning. Den nya tekniken, som vi kallar Femto Photography. består av femtosekund laserbelysning, picosekund-noggranna detektorer och matematiska rekonstruktionstekniker. Vår ljuskälla är en Titanium Safir-laser som avger pulser med jämna mellanrum varje 13 nanosekunder. Dessa pulser belyser scenen och utlöser också vårt picosecond exakta streakrör som fångar ljuset som återvänt från scenen. Streakkameraet har ett rimligt synvinkel i horisontell riktning men mycket smal (ungefär lika med en avsökningslinje) i vertikal dimension. Vid varje inspelning kan vi bara spela in en 1D-film i det här snäva visningsfältet. I filmen registrerar vi ungefär 480 bildrutor och varje ram har en exponeringstid på ungefär 1,71 picosekund. Genom ett system av speglar orienterar vi kamerans syn mot olika delar av objektet och tar en film för varje vy. Vi upprätthåller en fast fördröjning mellan laserpulsen och vår filmstartstid. Slutligen använder vår algoritm denna infångade data för att komponera en enda 2D-film med ungefär 480 bildrutor vardera med en effektiv exponeringstid på 1,71 picosekunder. Utöver potentialen inom konstnärlig och pedagogisk visualisering innefattar applikationer industriell avbildning för att analysera fel och materialegenskaper, vetenskaplig bildbehandling för att förstå ultrasnabba processer och medicinsk bildbehandling för att rekonstruera underytaelement, dvs ultraljud med ljus. Dessutom tillåter fotonanalysanalysen nya former av beräkningsfotografi. t. ex. att göra och återlätta foton med hjälp av datorgrafik tekniker. Referenser A. Velten, R. Raskar och M. Bawendi, Picosecond Camera för Time-of-Flight Imaging, i Imaging Systems Applications. OSA Technical Digest (CD) (Optical Society of America, 2011) Länk Långsam konst med trillionramar per sekund kamera, A Velten, E Lawson, A Bardagiy, M Bawendi, R Raskar, Siggraph 2011 Talk Link R Raskar och J Davis, 82205d tidsljustransportmatris: Vad kan vi motivera om scenegenskaper8221, juli 2007 Vanliga frågor Hur kan man ta ett foton av fotoner i rörelse med en biljon per sekund Vi använder en pico-sekundär noggrann detektor. Vi använder en speciell bildskärm som heter ett streckrör som beter sig som ett oscilloskop med motsvarande utlösare och avböjning av strålar. En ljuspuls kommer in i instrumentet genom en smal slits längs en riktning. Den avböjs därefter i vinkelrätt riktning så att foton som kommer först träffar detektorn i en annan position jämfört med foton som kommer senare. Den resulterande bilden bildar ett ljusstråle. Streakrör används ofta i kemi eller biologi för att observera objekt i milimeterstorlek men sällan för ledig bildbehandling. Kan du fånga några händelser med denna bildhastighet Vad är begränsningarna Vi kan INTE fånga godtyckliga händelser vid picosekundstidupplösning. Om händelsen inte kan repeteras, kommer det önskade signal-brusförhållandet (SNR) att göra det nästan omöjligt att fånga händelsen. Vi utnyttjar det enkla faktumet att fotonen statistiskt kommer att spåra samma väg i upprepade pulserande belysningar. Genom att noggrant synkronisera den pulserande belysningen med infångning av reflekterat ljus registrerar vi samma pixel vid samma exakta relativa tidslucka miljontals gånger för att ackumulera tillräcklig signal. Vår tidsupplösning är 1,71 picosecond och alltså aktivitet som spänner mindre än 0,5mm i storlek blir svår att spela in. Hur jämför det här med att fånga videoklipp av kulor på gång Omkring 50 år sedan skapade Doc Edgerton fantastiska bilder av snabba objekt som kulor. Vi följer i hans fotspår. Utöver den vetenskapliga utforskningen kan våra videoklipp inspirera konstnärliga och pedagogiska visualiseringar. Nyckeltekniken var då användningen av en mycket kort varaktighet för att frysa rörelsen. Ljus reser omkring en miljon gånger snabbare än kula. Att observera fotoner (ljuspartiklar) i rörelse kräver en helt annan inställning. Kula är inspelad i ett enda skott, dvs det är inte nödvändigt att avfyra en sekvens av kulor. Men för att observera fotoner måste vi skicka pulsen (ljuskula) miljontals gånger in i scenen. Vad är nytt om Femto-fotograferingsmetoden Modern bildteknik tar bilder och analyserar riktiga scener med 2D-kamerabilder. Dessa bilder motsvarar stadigt ljustransport och ignorerar fördröjningen i utbredning av ljus genom scenen. Varje ljusstråle tar en tydlig väg genom scenen som innehåller en mängd information som går förlorad när alla ljusstrålar summeras på den traditionella kamerapixeln. Ljuset färdas väldigt snabbt (1 fot i 1 nanosekund) och provtagningsbelysningen vid dessa tidsskalor ligger långt utöver de konventionella sensorns räckvidd (snabb videokameror har mikrosekreta exponeringar). Å andra sidan tar LiDAR - och Femtosekund avbildningstekniker, såsom optisk koherens-tomografi, som använder ultra-snabb sensing och laserbelysning, bara direkt ljuset (ballistiska fotoner) från scenen, men ignorerar det indirekt reflekterade ljuset. Vi kombinerar de senaste framstegen i ultrahurtig hårdvara och belysning med en rekonstruktionsteknik som avslöjar ovanlig information. Vilka är utmaningarna Snabba elektroniska sensorer har exponeringstid i nanosekunder eller hundratals picosekunder. För att fånga förökning av ljus i en bordplattform behöver vi sensorns hastigheter på cirka 1 ps eller en biljon per sekund. För att uppnå denna hastighet använder vi ett streckrör. Streak-kameran använder ett trick för att fånga ett ettdimensionellt synfält på nära en biljon per sekund i en enda bild. För att få en komplett film av scenen sätter vi samman många av dessa strimma bilder. Den resulterande filmen är inte av en puls, men är i genomsnitt många pulser. Genom att noggrant synkronisera lasern och kameran måste vi se till att alla dessa pulser ser likadant ut. Hur kommer dessa komplicerade instrument att övergå från laboratoriet De ultrasnabila bildanordningarna idag är ganska skrymmande. Laserkällorna och höghastighetskamerorna passar på en liten optisk bänk och måste noggrant kalibreras för utlösning. Det finns dock parallell forskning i femtosekund solid state lasrar och de kommer att förenkla ljuskällan mycket. Dessutom visar framsteg i optisk kommunikation och optisk databehandling ett stort löfte för kompakta och snabba optiska sensorer. Ändå bygger vi på kort sikt applikationer där portabilitet inte är lika kritisk. Relaterat arbete P Sen, B Chen, G Garg, S Marschner, M Horowitz, M Levoy och H Lensch, 8220Dual photography8221, i ACM SIG. 821705 SM Seitz, Y Matsushita och KN Kutulakos, 8220A teorin om invers ljustransport8221, i ICCV 821705 SK Nayar, G Krishnan, M Grossberg och R Raskar, 8220Fastavskiljning av direkta och globala komponenter i en scen med högfrekvent belysning8221, i SIGGRAPH 821706 K Kutulakos och E Steger, 8220A teorin om refraktions - och spegelformad 3D-form genom ljusvägs triangulation8221, IJCV 821707. B. Atcheson, I. Ihrke, W. Heidrich, A. Tevs, D. Bradley, M. Magnor, H .-P. Seidel, Time-resolved 3D-infångning av icke-stationära gasflöden Siggraph Asia, 2008 Presentation, Video och News Stories Nyheter Täckning: New York Times. Speed of Light Lingers i ansiktet av New Camera MIT News. Trillion-frame-per-sekund video. Genom att använda optisk utrustning på ett helt oväntat sätt har MIT-forskare skapat ett bildsystem som gör att ljuset ser långsamt ut. BBC: MITs Light Tracking Camera Melanie Gonick, MIT News Tack Vi tackar hela Camera Culture-gruppen för sitt ohållbara stöd. Denna forskning stöds av forskningsbidrag från MIT Media Labs sponsorer, MIT Lincoln Labs och Army Research Office genom Institute for Soldier Nanotechnologies hos MIT. Ramesh Raskar stöds av en Alfred P. Sloan Research Fellowship 2009 och DARPA Young Faculty Award 2010. Senaste projekt inom Camera Culture groupDenna webbplats visar hur man gör en skön DivX-video (från TV, DVB, DV, DVD etc.) för arkiveringsändamål ELLER hur man minskar filstorleken för att producera snygga men små DivX-bilder. Om du har att göra med DivX, innehåller den här webbplatsen några videostatistik och experiment, som kan vara av intresse för alla videoutgivare och DivX-entusiaster. En stor del av denna sida behandlar interlacingdeinterlacing som introducerar några av de nästiest interlacing problemen som dessa: Besök även mina andra webbplatser eBöcker Ladda ner e-böcker-nedladdning (med associerat program) Tiny Google Startsida för din webbläsare tigoo Matrix Reloaded Förklarad matrisförklarad Gratis Dating Tips 100-dating-tips Mina Freeware-filer 1-4a Tror du att du spelar in 25 bilder per sekund när du gör en film med din digitala videokamera Din digitala videokamera gör följande: Antecknar 50 bilder per sekund, blandar varannan bilder i följd ( med halva höjden) i 1 ram. I själva verket kallar du inte dem bilder, men fält. Så 2 fält är blandade i 1 ram. Denna blandning kallas interlacing. Här är ett exempel på vad din digitala videokamera gör: Fånga fält1 (fångar på halva höjden eller full längd och ändrar sedan ner): De ser ungefär lika ut. Men vänta, de är annorlunda. Du kan se genom att jämföra tummens läge och tangentbordstangenterna. Nu blandas dessa två fält i Frame1 (full höjd): Vad du ser ovan är en exakt ram som på tejpen på din videokamera. Här är en zoomad vy av ovanstående ram 1: Som du tydligt kan se ovan består Frame1 av Field1 och Field2. Det sätt som det ser ut kallas sågtand-typ kantförvrängning möss tänder kamma serrations interlaced linjer. Med andra ord: En enda ram består av 2 fångster av 2 olika stunder i tiden. Field1Time1, Field2Time2. Se denna ram nedan. Detta är en fångst direkt från MTVs Digital Video Broadcasting: Ovanstående scen består av 2 helt olika scener eftersom det här är ramen där det är en förändring från scene1 till scene2. Scene2 (Detta är Britney Spears prestanda på MTV Video Music Awards 2001) På grund av den här intermix-tiden (1 framtid1time2) är det omöjligt att: deinterlace en ram håller 25 ramar, håll hela kvaliteten (all information på en bild). Omöjlig. Du måste ändra minst en av dessa punkter. Förutom när det inte fanns någon rörelse. På en datorskärm är interlaced inspelningar irriterande att titta på eftersom linjerna är verkligen störande. Speciellt i scener där det rör sig från vänster till höger (höger till vänster) ser du interlacing, som i det här exemplet: Texten längst ner rullar från höger till vänster och lämnar sålunda med muständer eftersom denna ram består av 2 snapshots av tid, som beskrivits ovan. Möss tänder på grund av en uppåtgående rörelse. Detta är en scen från musikklippet quotAnywherequot från artist 112. Det rör sig inte om några rörelser, men det här är en ram där det var en kort blixt, så det är en skillnad från ett fält till det andra. För att göra sakerna ännu mer komplicerade, har vissa digitala videokameror något du kan kalla kvadrera interlacingquot. Även om denna term kanske är något felaktig för att beskriva artefakternas källa, är det ganska beskrivande för slutresultatet. Men även efter deinterlacing några röda och några gröna pixlar stanna där det sista fältet var. Här är ett annat exempel (efter deinterlacing): Vissa videokameror blandar olika färger i olika fält, eller använder CCD-filer som reagerar långsammare, så att du får dessa konstiga färgmönster ibland. Vidare finns det videokameror med kända quothardware bugsquot som producerar en färghalo eller färgblödning eller färgfärgning (exemplet ovan filmades med en Sony PC110, som har denna kända quotcolor behaviourquot). Vidare finns det något som oskärpa på grund av det faktum att färglösningen är lägre än bildupplösningen, vilket innebär att 4 pixlar delar 1 färg. Vidare finns färgavvikelser införda av kamerans linssystem. Dessutom kan det brytas DV codecs, som avkodar buggy. Du kan försöka Mainconcepts DV codec () som har ett högt rykte om du misstänker din egen codec. Det finns även något du kan kalla ljusstyrka interlacing. Detta är en fångst från kvicksilvermusikklippet, utförs av quotFrench Affairquot från TV-kanalen Tango TV (från Luxemburg). Detta musikklipp sköts progressivt. Det finns inga mus tänder någonstans i det här klippet. Men du ser quotbrightness interlacing linesquot. Kanske detta klipp spelades in interlaced och omvandlades sedan till att vara progressiva och det här är de vänstra deinterlacerande artefakterna. För även med metoderna som beskrivs på denna sida är det svårt att få perfekta resultat. Nej, det är inte Kylie Minogue och hennes gay tandläkare. Dess vackra Kylie och vackra Jason Donovan utspelar sig speciellt för youquot 1988 i quotops på Popsquot Som du ser finns det några deinterlacingartefakter. Du kommer dock knappast att märka dem under spel. Is interlacing a bug Unfortunately this is the way digital camcorders and digital VCRs record and digital broadcasting is done. One second of a movie consists of 25 frames 50 interlaced images. That means that when you deinterlace a movie for your computer or your projector or your TFT monitor, and you want to play it on a standard TV set, your software (or your hardware) have to interlace it again. Example: There are 2 kinds of DVDs: Some have an interlaced format (like the examples above) and some are transferred from film to DVD directly, thus have 25 progressive frames encoded. This is purely a decision of the DVD company. Since TV sets expect you to feed them with 50 images per seconds (whether its from your old analog VHS recorder or from your antenna or from your DVD player) the DVD player needs to convert those 25 progressive frames to 50 images and send them to the TV set. That means they have to get interlaced them (well, its not interlacing in its original sense, but you are making 50 images out of 25 images) instead of letting the TV simply display those original 25 fps. Just recently Panasonic introduced one of the first TV sets to be able to receive progressive frames from the DVD player. So you need 2 things: A special DVD player, that suppresses the 25p-gt50p conversion and this special TV set. Panasonic TX 32ph40d is able to receive progressive frames (Field1 and 2 are half the height of course, but I have resized them to make them comparable) Blending would do this to them: Please note, that not only the area where the movement happened is changed thru blend, but also the green main body. If nothing changes from field to field then quotDeinterlacing by Blendingquot gives you a slight blur. In other words: Deinterlacing by blending (which is one of the most frequent ways to deinterlace) simluates fluent motion by blurring and quotmushesquot 2 consecutive pictures together. Thus in fact you reduce the quality down to a quarter of the possible quality. You could call it: Show both fields per frame. This basically doesnt do anything to the frame, thus it leaves you with mice teeth but with the full resolution, which is good when deinterlacing is NOT needed. You could call it: Dont blend everything but only the mice teeth themselves. This can be done by comparing frames by time or by spaceposition. This gives you good results in quiet scenes where not much is moving, because there is nothing blurred then. You could call it: This seems to me a much better idea than Blending, but unfortunately I dont know any filter or program that can do it. The idea is: Blur the mice teeth where needed, instead of mixing (blending) them with the other field. This way you would get a more film-like look. As you see the blur gets stronger in the direction of the old position. You could even add an effect like this (Motion blur) This motion blur is done nowadays when you need to convert 50fps footage to 25fps footage (to make 50fps camcorder footage look more film-like). Or to make comics and rendering (like quotMonsters Incquot) look more film-like. You could call it: You discard every second line (the movie is half the height then) and then resize the picture during play. That is the same as skipping Field2, Field4, Field6. You could call this quotEven Fields Onlyquot or quotOdd Fields Onlyquot. There are some bad things about it. You lose half of the resolution and the movie becomes kind of stuttering (as mentioned above). That means, that it doesnt play as fluidly as it could be. You could call it: There is also this way: Displaying every field (so you dont lose any information), one after the other ( without interlacing) but with 50 fps. Thus each interlaced frame is split into 2 frames ( the 2 former fields) half the height. As you see, you wont lose any fields, because both are displayed, one after the other. Sometimes quotBobquot is also called quotProgressive Scanquot. However since Bob doesnt analyze areas (Stupid Bob) nor the differences between fields this is an inappropriate synonym. Please see the next example for the quotrealquot quotProgressive Scanquot. You could call it: Analyzing the two fields and deinterlace only parts which need to. The main difference to quotArea basedquot is that it gives you a 50fps movie instead of a 25fps movie, thus leaving you with perfect fluidity of motions. To say it more academically: High temporal and vertical resolution. This is my method of choice. You can achieve this with freeware. Read the advantages and drawbacks on this site. You could call it: Analyzing the movement of objects in a scene, while the scene consists of a lot of frames. In other words: Tracking of each object that moves around in the scene. Thus effectively analyzing a group of consecutive frames instead of just single frames. This is the best solution, but unfortunately only for companies that can pay for expensive hardware solutions. NEVER BE FOOLED: If you see just one single frame instead of the whole movie to show you the quality of any deinterlacing method, be aware. You wont know how good or bad it really is. Because you dont know how fluid the movie plays and how many fine structures are lost and whether the deinterlacing method still fails sometimes or leaves interlaced lines. Instead, compare the deinterlacing methods by watching one minute or so of both movies with still and fast moving scenes. How fluid is it How blurred is it How many interlacing artifacts are left Fluid movie. Nearly all Video Software is able to do it. Video does not need to be converted to fields first. Picture becomes blurred (unsharp) when theres motion. Compression rates are not too good. Even in quiet areas the video gets blurred. Discarding Fields Single Field Mode Nearly all Video Software is able to do it. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Video does not need to be converted to fields first. Very fast, even on slow computers, because the method consists only of simply deleting every second line. You lose half of the information. (Though even with half of the information it is still much sharper than blending). You lose a little bit of sharpness in quiet scenes, because each frame is half the height and has to be scaled up. Grain seems to be more coarse because it is double sized during play. Movie is not fluid (kind of stuttering continuously). You need to resize the movie during play, so you need a faster processor. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. Video does not need to be converted to fields first. If the algorithm is well programmed, it will blur the mice teeth in fast movements while preserving sharpness in quiet (no motion) scenes (or parts of the pictures). Does not always eliminate all interlaced lines. Sometimes eliminates the wrong video data. Sometimes complicated parameters that can differ from video material to video material. Click the pic below, and tell me whats best for your movie: Movie can become unnaturally blurred (unsharp) during movements. 720x576-gt720x288 50 fps Super fluid movie. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. How to prevent resizing artifacts . Jumping artefacts, mostly visible with TV logos (see example below). In quiet scenes without movements (where interlacing would not matter), you lose a little bit of sharpness, because each frame is half the height and has to be scaled up. Only a few software programs are able to deinterlace by bob. You need to resize the movie during play so you need a faster processor. You need to play 50fps, so you need a faster processor or a faster codec. Due to the anti-bobbing filter (see below) the frames are blurred a little bit. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is quite big compared to the other methods. Combinations of the methods above DURING PLAY Can result in all the pros of the methods above Can result in all the cons of the methods above Since the material can result in both 25fps and 50fps (switching between these two during play), this method can only be used for watching movies rather than convertingencoding them. I doubt, that there is any program that can do it fast enough. There was a DVD player software that could do it, but I dont know if it was supported by hardware. There is also DScaler, but its useless for me since a) I was never able to get it to work with my 3 WinTV cards b) it doesnt work with recorded movies (just with movies currently displayed) c) it is already partly integrated in WinTV d) its development is very slow (halted) So you want to tell your friends to have a horsepower computer, install a new player, install deinterlacing software and still live with a result worse than deinterlacing properly in the first place resizing down to 384x288 or below The easiest method. Any video editing program can do it, even if it doesnt feature a quotdeinterlace methodquot The file sizes are quite small. The result can be exactly the same as quotBlendquot, except for the heightwidth, which makes the picture a little more unsharp. This is the easiest way to deinterlace videos. Example: you have a typical DV Camera footage of 720x576 (interlaced) and you simply resize it down to 384x288. Why 384x288 Because: 1) 2885762, that means, that its fast to calculate and quality loss is low. 2) 384x288 is 4:3 but mainly for reason 3) Movies that are 288 pixels high and below cannot be interlaced. So 384x288 is the largest size that ensures you have a progressive-frames-only video. Combination of BobWeave (Progressive Scan) 720x576-gt720x576 50 fps Super fluid movie. Unbelievably sharp picture. 99 deinterlaced movie. (99 means that there is a minimal chance that mice teeth stay visible here and there) In quiet scenes without movements (where interlacing would not matter), you keep the full resolution, while the moving scenes are fluid. You dont have to play with bobdebob filters (see below). No resizing is done. This leaves you extra sharpness. Jumping artifacts, mostly visible with TV logos (see example below). Only few software (like Virtualdub and maybe Cleaner ) is able to deinterlace like this. You need to play 50fps, so you need a faster processor or a faster codec. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is bigger than with the other methods. See file size comparison link below. 720x576-gt720x576 50 fps Professional hardware equipment can get very expensive. How expensive Can you say 50000 Or think 100000 Then spell T-E-R-A-N-E-X. This is equipment as used for professional broadcasting: Teranex . There is a software solution by the German Fraunhofer Institute (yes, those who invented mp3): HiCon 32. Brilliant piece of work. Some PC graphic cards (e. g. NVidia) and Video cards (e. g. Hauppauge) have implemented onboard deinterlacing. Lets hope this gets standard as time goes by. Despite the above mentioned counterpoints, deinterlacing by quotBobquot or quotWeaveBobquot gives you excellent results (the best results of all available software methods). The reason is simple: How can you expect to have excellent results when you convert 50 fields per second (50 snapshots per second) to 25 snapshots per second If you dont want to use BobProgressive Scan, I would suggest to use Deinterlace by Discarding Fields, because its fast ( can be done with a slow PC) you can do it with the built-in filter of Virtualdub (see below), ( is free and easy to do) the image stays very sharp it leaves absolutely no interlaced lines the resulting filesizes are small I have encoded a video with the above methods and different options to compare the file sizes . Note: When video editing software has an option quotDeinterlacequot without further explanation it pretty sure means quotBlendquot or quotDiscard Fieldquot. Open quot Example. avs quot with Virtualdub and youll notice that you have a movie with fields instead of frames. Half the height, but no interlaced lines. Click here if your. avs produces an error or doesnt work. Now there are 3 ways how you could continue: 4a) The worse method (but still very good): Bob Go to Virtualdubs filter menu and quot Add.. quot the built-in filter quot Field bob quot. Without this filter the movie bobs (jumps up and down). Why does the movie bob Choose quotQuarter scanline downquot amp quotQuarter scanline upquot or vice versa, depending on your video material. If you choose the wrong one, your video will jump up and down even more (like in the Persil commercial below). Unfortunately this anti-bob filter also blurs a little bit. So you can add Virtualdubs built in filter quot Sharpen quot right after quot Field Bob quot and then sharpen the amount you like. 4b) The best method (but more time consuming an bigger file size): Progressive Scan (WeaveBob) Get the following the Virtualdub filter quotDeinterlace - Smooth quot from the website of Gunnar Thalin. Copy it to Virtualdubs quotpluginsquot folder. Go to Virtualdubs filter menu and quot Add.. quot this filter. You may have to check quotAlternate field orderquot within this filter. But this depends upon your movie source. 4c) Not the best and not the worst method is: Bob by Avisynth Simply change the avisynth script quot Example. avs quot to: Select ratio 4:3 from the menu of your player. If your player cannot choose a ratio then you will see the movie half size (but it will still be very fluid). Switch to fullscreen mode. Disable any DivX postprocessing. Postprocessing will slow down the playing speed. Even with little postprocessing the movie wont play fluidly with a fast CPU. So set the Quality level (post-processing level) to quotMINquot. Actually you shouldnt use the standard DivX Decoder from DivX. Get the freeware decoder suite FFDShow . The faster your processor the better. It should be gt 0.6 GHz otherwise you drop frames and it looks as if the movie was badly coded. I have several computers and I can watch the movies below smoothly with my 650Mhz Athlon. It may also depend on the speed of your graphics card. Yes, I know this capture is from an old DivX version. But I wont update it everytime DivX releases a new version. brit. avi (5.4 MB) Bob (method 4a) 50 fps 17 seconds Video Codec: DivX 5 (quality based: 93) Audio Codec: mp3 Directly recorded from MTVs Digital (MPEG-2) Broadcasting and converted to a DivX. avi You have to watch the movie 4:3 1) Please note how fluid the movie is 2) but also note that the MTV logo at the upper right corner is flimmering a bit. More about flimmering. 3) this is not the best quality, because I used quotBobquot instead of quotProgressive Scanquot . 4) Also pay attention to the black dancer at the right, hes quite good. 5) This performance of Britney Spears (MTV VMA 2001) was aired 50fps. Justin Timberlakes performance one year later at the MTV Video Music Awards 2002 was aired also 50fps, but these frames had been artificially interlaced from 25 progressive frames, to make it look more quotfilm-likequot. Interlacing is visible in movies which have a height gt 288 (NTSC: gt 240). So when you capture a movie, say, 384x288 or smaller you wont see interlaced frames. Its practically blending. Some capture cards dont blend but drop every second field with sizes smaller or equal to 288. The term quotHalf ImagequotquotHalf Picturequot is another word for quotFieldquot. The quotHalfquot relates to the fact, that the half resolution (e. g. 288 pixels) of the 2 fields (half images) is combined to full resolution (576 pixels) in quiet areas. In my personal opinion PAL is better than NTSC: Because in the end resolution matters. NTSC has only 83 of PALs resolution. And PALs resolution is already bad enough. Cinema movie are recorded with 24 fps. To convert them to PAL (25 fps) you simply make the movie run faster (4 faster, some people with sensitive ears may hear the raise in tone). But to convert it to NTSC (30 fps) is a completely different story. PAL is more common worldwide than NTSC. About 4 times as many people live in a PAL country than in an NTSC country. I am not talking about other stuff like Hue Fluctuation, Contrast, Gamma ratio and so on ( N ever T he S ame C olor, because of its color problemsquot), because PAL is also not the best in these regards. I am talking about resolution and frame rate which are the biggest arguments for Pal. As you see from the reasons above this has nothing to do with anti-Amerikanism or anti-Japanism. Its just based on pure logic. I have seen PAL movies and NTSC movies and the clarity of PAL is much better. Their fluidity (50 images per second vs. 60 images per second) is nearly the same. There are camcorders (like Panasonics AG-DVX100) that can film with 24 frames per second. Without fields. Just progressive ( non-interlaced) frames. Why 24 and not 25 To give you the cinema feeling. So the info on this site regarding deinterlacing movies doesnt apply to footage filmed like that. When you buy a DVD, some are encoded with interlaced frames and some are progressive. The output is always interlaced of course (except for some special DVD players) because TV Sets usually dont support progressive input. DivX suckz and DivX rulez. DivX rules because the de coder is fast and free. DivX rules because the en coder is good and fast. DivX sucks because its expensive as hell if you want to commercially publish your own movies: You have to pay DivX Networks for the encoder AND for the encoded film if you want to use it commercially. AND you have to pay the MPEG patent holders (mpegla ) per movieper minute (because DivX is Mpeg-4). The MPEGLA fee for itself is already way too high. Please see my website 1-4a for movie utilities.
No comments:
Post a Comment