vault backup: 2022-09-08 12:14:17

Affected files:
.obsidian/workspace
02. PARA/03. Resources(資源)/HDR Sensor.md
This commit is contained in:
2022-09-08 12:14:17 +08:00
parent ffeeb976e6
commit dc3c24a51a
2 changed files with 272 additions and 8 deletions

16
.obsidian/workspace vendored
View File

@@ -4,13 +4,13 @@
"type": "split",
"children": [
{
"id": "ec13ce58b15fa6d4",
"id": "d1de3e27789cf166",
"type": "leaf",
"state": {
"type": "markdown",
"state": {
"file": "02. PARA/01. Project專案/008. Sentinel.md",
"mode": "preview",
"file": "02. PARA/03. Resources資源/HDR Sensor.md",
"mode": "source",
"source": true
}
}
@@ -69,7 +69,7 @@
"state": {
"type": "backlink",
"state": {
"file": "02. PARA/01. Project專案/008. Sentinel.md",
"file": "02. PARA/03. Resources資源/HDR Sensor.md",
"collapseAll": false,
"extraContext": false,
"sortOrder": "alphabetical",
@@ -86,7 +86,7 @@
"state": {
"type": "outline",
"state": {
"file": "02. PARA/01. Project專案/008. Sentinel.md"
"file": "02. PARA/03. Resources資源/HDR Sensor.md"
}
}
}
@@ -114,8 +114,9 @@
"direction": "horizontal",
"width": 243
},
"active": "ec13ce58b15fa6d4",
"active": "d1de3e27789cf166",
"lastOpenFiles": [
"02. PARA/03. Resources資源/HDR Sensor.md",
"02. PARA/01. Project專案/008. Sentinel.md",
"02. PARA/01. Project專案/001. Kong.md",
"00. TOP/01. TODO.md",
@@ -124,7 +125,6 @@
"02. PARA/03. Resources資源/Trojan.md",
"02. PARA/03. Resources資源/802.11.md",
"02. PARA/03. Resources資源/Proxmox VE.md",
"02. PARA/03. Resources資源/sqlite.md",
"02. PARA/02. Area領域/20150803 - Android/ADB 取得 APK 的 icon.md"
"02. PARA/03. Resources資源/sqlite.md"
]
}

View File

@@ -0,0 +1,264 @@
## HDR sensor 原理介紹
1. 什麼是sensor的動態範圍dynamic range
sensor的動態範圍就是sensor在一幅圖像裡能夠同時體現高光和陰影部分內容的能力。
用公式表達這種能力就是:
DR = 20log 10i _max / i_min); // dB
$$DR = 20log(\frac{i_max}{i_min})$$
i_max 是sensor的最大不飽和電流----也可以說是sensor剛剛飽和時候的電流
i _min是sensor的底電流blacklevel
 2. 為什麼HDR在成像領域是個大問題
在自然界的真實情況有些場景的動態範圍要大於100dB。
人眼的動態範圍可以達到100dB。
Sensor 的動態範圍:
高端的>78 dB;
消費級的60 dB 上下;
 所以當sensor的動態範圍小於圖像場景動態範圍的時候就會出現HDR問題----不是暗處看不清,就是亮處看不清,有的甚至兩頭都看不清。
## ![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095159571-173615205.png)
 上圖暗處看不清--前景處的廣告牌和樹影太暗看不清。
## ![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095219849-2036928694.png)
## 上圖亮處看不清--遠處背景的白雲變成了一團白色,完全看不清細節。
3. 解決HDR問題的數學分析
根據前邊動態範圍公式
DR = 20log 10i_max / i_min); // dB
所以從數學本質上說要提高DR就是提高i_max減小i_min
對於10bit輸出的sensor,從數學上來說i_max =1023i_min =1
動態範圍DR = 60
 對於12bit輸出的sensorDR = 72
所以從數學上來看提高sensor 輸出的bit width就可以提高動態範圍從而解決HDR問題。
可是現實上卻沒有這麼簡單。
提高sensor的bit width導致不僅sensor的成本提高整個圖像處理器的帶寬都得相應提高消耗的內存也都相應提高這樣導致整個系統的成本會大幅提高。所以大家想出許多辦法既能解決HDR問題又可以不增加太多成本。
## 二HDR Imaging Digital Overlap
Digital Overlap是目前比較流行的sensor H DR 技術在監控與車載相機等領域的應用非常廣泛。Sony於2012年在監控相機市場首先推出基於DOLdigital overlapHDR技術的圖像傳感器之後OV與Onsemi也都推出了與DOL類似的HDR技術的圖像傳感器而且應用領域不局限於監控這種傳統HDR imaging的市場而且擴展到了Automotive camera市場。現在Sony已經推出了第二代支持虛擬通道DOL HDR技術的sensor。
 1.什麼是時域多幀HDR技術
相機在時間上連續輸出由欠曝到過曝的圖像然後做圖像融合得到HDR圖像。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095356429-1225500631.png)
 融合後HDR圖像
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095500036-1147852374.png)
比較典型的一種融合方法是根據luminancecontrastmotion等條件對第K幀圖像的像素[ij]給出權重。Wij,k 是第K幀位置ij像素的權重Xk((i,j)是原始像素值Xfij是融合後的像素值。公式如下 
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095726682-775383621.png)
對彩色圖像,權重的計算會考慮色彩的飽和度等因素。
 2.傳統時域多幀HDR技術存在的局限
由於傳統時域多幀是基於連續曝光的整幀圖像Frame Based進行融合所以圖像之間的間隔時間就是一幀圖像的周期由此會產生很多artefacts
 場景內物體增減
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095915848-294335122.png)
近距離物體快速移動形成拖影
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095948969-1372705839.png)
Color artefact
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100054082-388198519.png)
Frame based的多曝光HDR技術常用於still image 的capture也有視頻HDR 採用這種技術比如sensor以60fps的幀率交替輸出長短曝光融合後輸出30fps的HDR圖像。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100333302-468472209.png)
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100418434-203196772.png)
早期的HDR video有採用這種技術自從DOL技術出現後這種Frame based Video HDR技術就逐漸退出歷史舞台了。
 3.什麼是DOL HDR
DOL HDR 也叫做line interleaving HDR 技術。以兩曝光DOL為例sensor每行會以長短曝光兩次先後輸出從readout角度來看就是長曝光幀與短曝光幀line interleaving 依次輸出如下圖第一行L輸出第一行S輸出第二行L輸出第二行S輸出以此類推。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100529435-170192984.png)
frame based HDR長短曝光幀的間隔是一個幀週期也就是必須一整幀曝光結束再開始一整幀曝光如下圖
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100546546-1096836968.png)
 對於DOL HDR而言由於line interleaving行的交織存在兩幀的overlap等於一幀輸出沒結束下一幀就來了長短曝光幀的間隔大大縮小了。
從下圖可見長曝光幀與短曝光幀overlap了一部分所以這種技術叫digital overlap。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100703466-1912064866.png)
 4.DOL長短曝光幀的時間間隔
前邊說過Frame based HDR的長短曝光幀的間隔是一幀的時間那麼DOL HDR的長短曝光幀的時間間隔是多大呢
如果先輸出長曝光的話
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100717894-1595515136.png)
 如果先輸出短曝光的話
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100822480-184812752.png)
 T= long exposure 的時間
所以當然是先輸出長曝光這樣T時間間隔會更小。。
 5.DOL長短曝光時間比與動態範圍擴展
以兩曝光DOL 為例
Exposure ratio = Long exposure time/ short exposure time
假設Exposure ratio = 16假設在xinhao 沒有飽和的條件下相當於曝光最大值增大了16倍2^4。也就是動態範圍擴大了4個bit。
以此類推每增加一個曝光幀如果exposure ratio =16動態範圍就可以擴大4bit。
按照一般HDR sensor 單曝光為12bit來算的話4曝光就可以讓sensor輸出的動態範圍擴大到24bit12+4+4+4)。
exposure ratio 也不是越大越好exposure ratio會受到三方面的製約圖像質量sensor設計以及isp line delay buffer。
從圖像質量上來說短曝光時間越短圖像噪聲越高長曝光越長motion的影響越大。Exposure Ratio越大在圖像融合後的SNR drop也越大。
從sensor設計上來說長短曝光之比受到讀出電路的限制sony的DOL第二代採用虛擬通道技術一定程度改善了這個限制。
從ISP的角度來說line d elay buffer 也限制了最大曝光時間。在短曝光行出來之前第一個長曝光行應該還在delay buffer裡這樣才能兩者對齊好給後面的frame stitch操作。而長短曝光比越大需要的line delay buffer就越大。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100950046-469714366.png)
 對於sensor做hdr融合case而言line delay buffer size就是固定的所以ISP傾向於在isp這端做HDR融合這樣可以更靈活的設計。Maver注對於車載而言帶寬是個主要關注點所以大部分用戶不會選擇在ISP側做HDR融合
6.DOL的局限
Sony在推出DOL的時候宣傳DOL是'準同時'輸出長短曝光。既然是'準同時'那就還不是同時所以也會有一些典型時域多幀HDR的圖像質量問題同時DOL也有一些特有的IQ問題。
HDR Transition Artefacts
可以從下左圖看到composition noise造成的edge這種edge有時候會誤導機器視覺。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101147526-216923810.png)
從DOL hdr的noise profile可以看出來如下圖在HDR拼接處可以看到SNR的顯著變化叫做snr drop當SNR drop大的時候就會出現明顯的edge如上圖所示。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101213313-292299226.png)
曝光比越小SNR drop就越小, 可以想見如果曝光比為1也就沒有snr drop了。反之曝光比越大動態範圍越大snr drop也越大如下圖所示。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101406902-1922414693.png)
 Flicker
交流電供電光源造成的flickering如下圖
交流電供電光源造成的flickering如下圖![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101441184-199810703.png)
 為了避免banding就得讓最小曝光時間是半週期的整數倍。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101520036-1816151275.png)
這樣就不會出現banding了。但是由於最小曝光時間變大了動態範圍就損失了。所以有時候為了保證不損失動態範圍就得容忍Flickering。這就得看應用場景了。
類似的問題發生在PWM供電的Led光源上尤其是交通信號燈以及汽車信號燈如下圖所示
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101758213-2089228974.png)
sensor的長曝光幀能catch到led 的light pulse但是短曝光幀就沒catch到這樣也會造成flickering甚至信號燈圖像的丟失。
這種flicker或者信號燈信息丟失的問題在車載成像系統上是致命的所以車載HDR現在更傾向採用spatial based HDR技術比如Sony採用的sub pixel技術或者OV 採用的split pixel技術。
HDR imaging split/sub pixel 技術
我們在上一期講了時域多幀HDR技術--Digital Overlap. 現在在監控領域的WDR sensor主要採用這種技術如下圖利用不同的sensor曝光藍色線所示覆蓋不同的動態範圍再把多曝光圖像stitching起來紅色線所示達到最大的動態範圍輸出。Sony的imx290OV的ov4689都是這個類型典型sensor。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101814735-1497687033.png)
車載領域也廣泛使用Temporal domain HDR技術但是隨著車載相機在ADAS與自動駕駛領域的迅速發展對圖像質量有著特別的需求導致Temporal domain HDR技術不能滿足需要。車載比較典型的兩個IQ需求是不能有motion artefact 和LED flickering。
motion artefact
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101934829-127704344.png)
 LED flickering
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102051683-2142159974.png)
Temporal HDR 在原理上就存在這些缺陷所以要解決這個問題就需要使用其他的HDR體制Spatial HDR技術是現在車載領域的主流解決方案。
比較典型的是Sony sensorimx390/490採用的Subpixel技術與OV sensorovx1a)採用的split pixel技術他們都屬於SpatialHDR技術範疇其基本原理是一致的。
 1.大小pixel的分離結構
與普通CFA的不同大小pixel技術的sensor在相鄰位置有一大一小兩個pixel他們空間上非常接近可以認為對空間採樣相同。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102145785-1322226290.png)
 由於pixel的大小不同物理上的sensitivity不同FWC也不同會產生與時域HDR一樣的不同曝光效果形成了對不同動態範圍的覆蓋。如下圖可以看到LPDLarge Pixel Diode與SPDS mall Pixel Diode是如何擴展動態範圍的。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102210732-185905022.png)
 2.大小分離pixel的電路設計
典型的大小分離pixel的電路如下圖所示
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102348969-47900883.png)
 SPD和LPD分別用黃色的二極管標出。CGCconversion gain control與TGtransfer gate控制了photo diode 向FD充電當TG s使能時FD接收SPD來的電荷RS會使能讓FD的電荷轉存出來。然後當TGL使能時FD接收L PD來的電荷RS會再一次使能讓FD的電荷轉存出來。RST負責在每一次轉存後把FD電容清空。這樣的電路結構就實現了LPD和SPD的分別讀出。這個部分的電路時鐘非常快所以可以認為大小像素是同時曝光的。後面的讀出電路也會把大小像素同時讀出由下圖可見T_lpd與T _spd是同時的。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102537918-1013568966.png)
  3.大小像素HDR與時域HDR在motion artefact上的比較
由下圖可以看出基於大小像素的HDR與時域HDR在拍攝運動物體上的mot ion artefact比較。
左圖是基於大小像素的圖像完全沒有motion artefact右圖是時域HDR可以看到明顯的motion artefact。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102637455-473076896.png)
對於這種更挑戰的場景舞廳的旋轉光球左圖是大小像素HDR右圖是時域HDR可以看到時域HDR的圖像把小的運動光點都混到了一起。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102730236-58004651.png)
4.大小像素與Dual conversion gain的結合
單獨靠大小像素只能形成兩個曝光的圖像再結合之前介紹過的DCG技術在大小pixel分別配合HCGLCG就可以形成4曝光。
假設單曝光輸出12bit曝光比是16那總共的動態範圍可以達到24bit輸出。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102823049-1006168382.png)
 5.兩種場景的切換
如下圖橫軸是場景的光亮度縱軸是SNR紅色曲線是LPD像素的SNR曲線藍色曲線是LPD像素的SNR曲線。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102839110-992140481.png)
SPD的飽和點更高而LPD的低光SNR更高。這兩條曲線說明了大小像素這種設計可以很靈活的適配場景的變化當場景非常亮的情況就用大小像素融合輸出這樣可以擴大動態範圍。
當場景非常暗的情況就完全切換到LPD像素因為它的SNR更高。
## 來源
- [HDR sensor 原理介紹- 吳建明wujianming - 博客園](https://www.cnblogs.com/wujianming-110117/p/12684011.html)