vault backup: 2024-02-17 23:11:19

This commit is contained in:
2024-02-17 23:11:20 +08:00
parent 758fec56e6
commit d7f574153d
78 changed files with 28 additions and 588 deletions

View File

@@ -1,5 +0,0 @@
## 自架stable diffusion
- [筆記自架AI Server用自己的電腦算圖方格子 vocus](https://vocus.cc/article/63ce7e0dfd89780001e1708f)
- [AI繪圖系列 | Stable Diffusion教學 | 打造自己夢想的正妹 - 打寶夥伴](https://1p2pstart.tw/%E7%A7%91%E6%8A%80%E6%87%89%E7%94%A8/ai%E7%B9%AA%E5%9C%96%E7%B3%BB%E5%88%97-stable-diffusion-%E6%89%93%E9%80%A0%E8%87%AA%E5%B7%B1%E5%A4%A2%E6%83%B3%E7%9A%84%E6%AD%A3%E5%A6%B9/)
- [如何在 M1 Macbook 上跑 Stable Diffusion - 叩頂窩客 | M2 | Apple Silicon](https://koding.work/how-to-run-stable-diffusion-on-m1-macbook/)
- [最詳細的 Stable diffusion WebUI 操作教學 - txt2img - 叩頂窩客](https://koding.work/stable-diffusion-webui-tutorial-txt2img/)

View File

@@ -1,31 +0,0 @@
An example that use [[categorical_crossentropy]] and softmax
```python
dropRatio = 0.1
model = Sequential()
model.add(Conv1D(filters=32, kernel_size=3, activation='relu', input_shape=(self.DATA_LEN, 1)))
model.add(Dropout(dropRatio))
model.add(MaxPooling1D(pool_size=2))
model.add(Conv1D(filters=64, kernel_size=3, activation='relu'))
model.add(Dropout(dropRatio))
model.add(MaxPooling1D(pool_size=2))
model.add(Conv1D(filters=64, kernel_size=3, activation='relu'))
model.add(Dropout(dropRatio))
model.add(MaxPooling1D(pool_size=2))
model.add(Conv1D(filters=128, kernel_size=3, activation='relu'))
model.add(MaxPooling1D(pool_size=2))
model.add(Dropout(dropRatio))
model.add(Conv1D(filters=256, kernel_size=3, activation='relu'))
model.add(MaxPooling1D(pool_size=2))
model.add(Dropout(dropRatio))
model.add(Flatten())
model.add(Dropout(dropRatio))
model.add(Dense(units=128, activation='relu'))
model.add(Dropout(dropRatio))
model.add(Dense(units=64, activation='relu'))
model.add(Dropout(dropRatio))
model.add(Dense(units=32, activation='relu'))
model.add(Dense(units=len(self.DEVICE_LABEL), activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer=Adam(learning_rate=0.01), metrics=['accuracy'])
```

View File

@@ -1,33 +0,0 @@
# 基礎銳化
# 風格銳化
## 方法
### 清晰度
有四種方法:
1. 自然
2. 衝擊力
3. 中性
4. 經典
#### 自然
用於溫和的局部對比,可以避免使用清晰度之後的顏色失真。
#### 衝擊力
比[自然]有更高的對比度。調整數值過高會導致高光裁切。適合風景。
#### 中性
與衝擊力相同,但不會增加飽和度。更適合用於中度的局部的對比度。
#### 經典
最溫和的局部對比度,不會增加飽和度。更好的保留高光細節。
## 清晰度
可以調整較大範圍的對比度。
## 結構
可以調整較小範圍的對比度。如紡織品、樹葉這些細節較多的表面。還可以減輕鏡頭衍射導致的模糊。
# 輸出銳化
要考慮輸出的媒介,是螢幕還是紙張。近距離觀看的,銳化數值可以較小,相對的,銳化數值就要調高。

View File

@@ -1,8 +0,0 @@
## YUV444
## YUV422
## YUV 420

View File

@@ -1,38 +0,0 @@
## 什麼是 HEIF / HEIC
HEIF 是儲存照片的格式全名是「High Efficiency Image File」(高效影像檔),是 HEVC/H.265 (High Efficiency Video Coding高效影片編碼) 的硬照版本;而 HEIC (High Efficiency Image Container高效影像容器) 則是蘋果用來形容 HEIF 格式檔的副檔名。 無可否認,「容器格式」(Container Format) 比起「格式」二字更能表達 HEIF 的能耐。
## HEIF 較小較佳
HEIF 檔案的大小約是 JPEG 檔案的一半,意味大家可以相同儲存空間放置多一倍的照片,也可縮短從網絡上傳或下載照片的時間,這是 HEIF 帶給我們最大的好處之一。 別以為較小的檔案會導致較差的畫質相反HEIF 的影像質素比 JPEG 還要好。單是這兩個好處就值得推翻「統治」硬照超過 25 年的 JPEG。
何解 HEIF 可以較小的儲存空間來記錄更多畫面細節呢?不要忘記 JPEG 是 1992 年的產物。經過二十多年科技的進步,不論是電腦硬件還是影像壓縮演算法,都獲得了空前成功和突破。 當年也有很多出色的影像壓縮演算法,礙於算式過於複雜,未能瞬間完成壓縮,無法應用於日常生活中。現今中央處理的速度已是當時的 100 倍以上,容許我們使用更繁複的演算法。
蘋果甚至在最新產品的硬件上,直接加入對 HEVC 及 HEIF 的支援,大大加快了影像編硬及解硬的過程,同時減少了圖像處理器的負擔,繼而減少電池的消耗。
## 一個檔案多張照片
一個 JPEG 檔只可存放一張照片,這是眾所周知的事實;但 HEIF 容許大家把多張照片存放於單一檔案內,像個照片容器。
把一系列相片放於單一檔案有什麼好處?許多手機都可拍攝 Live Photos 動態照片,即一序列數秒連續的照片。
如果把連續的照片放於單一的檔案既能使文件夾變得整齊也有助提升播放效率否則2 張 Live Photos 會演變成數十個 JPEG 檔;重播時,又要花時間尋找相關的照片。
## GIF 殺手
HEIF 能容納多張相片,已經有了 GIF 的最大優點。再者HEIF 像 GIF 一樣,支援透明背景,但 HEIF 的「通道位元深度」(Channel bit depth) 是 16 bits即 48 bits 的「像素位元深度」(Pixel bit depth) 遠大於 pixel bit depth 只有 8 bits 的 GIF 和 pixel bit depth只有 24 bits 的 JPEG。而相機的 channel bit depth 都只有 10 或 12 bitsHEIF 不會像 JPEG 那樣浪費相機的 bit depth可完整地保留顏色的層次。
如未清楚「通道位元深度」(Channel bit depth) 和「像素位元深度」(Pixel bit depth) 的分別,可參閱《[【攝影名詞】什麼是 Bit Depth (位元深度)Bits per Channel 和 Bits per Pixel 又有何分別?](https://www.imagejoy.com/article/655)》一文。
由此可見HEIF 不單是 JPEG 的終結者,還是個 GIF 殺手呢!
## 無損旋轉及裁砌
旋轉及裁砌相信是大家用得最多的相片編輯功能,而旋轉有可能對照片造成破壞,而裁砌肯定會對相片造成破壞。除非另存新檔,否則編輯後的照片是不可還原。 然而HEIF 天生已容許用家對照片進行無損的旋轉及裁砌,大家可把旋轉及裁砌後的照片完整無缺地還原。
## HEIF 的兼容性
目前為此iOS 是 HEIF 格式的最大的推行者。在 HEIF 未完全普及前,如把 HEIF 照片傳送到非 iOS 裝置或分享至不支援 HEIF 格式的 APPiOS 會把 HEIF 相片無聲無色地轉換成 JPEG 照片。
照片編輯方面Photoshp 和 Lightroom 已支援 HEIF / HEIC。 相信不久將來,大家都會把檔案輸出成 HEIF / HEIC (視乎其他廠商怎樣命名 HEIF 照片的副檔名),而非 JPEG。
## 參考
- [【攝影名詞】什麼是 HEIF/HEIC 照片格式?蘋果助攻的 JPEG 終結者 - 攝影入門教學 | ImageJoy](https://www.imagejoy.com/article/658)

View File

@@ -0,0 +1,121 @@
numpy有很多運算都可以指定axis例如`x.sum(axis=0)`或是`x.max(axis=0)`之類。
axis在2軸像是 `[[1, 2], [3, 4]]` 可以理解成x方向或是y方向。但是在更多軸的情況下就很難這樣理解了。
我的理解方式是把axis當作「第幾層」。例如`x.sum(axis=0)`就是把「第0層」之下的東西都加起來例如說有一個array `a`長這樣:
```python
array([[[1. , 2. , 3. ],
[4. , 5. , 6. ],
[7. , 8. , 9. ]],
[[0.1, 0.2, 0.3],
[0.4, 0.5, 0.6],
[0.7, 0.8, 0.9]]])
```
## axis=0
那麼`np.sum(a, axis=0)`就是把「第0層」之下的東西都加起來`a`的shape是(2, 3, 3)所以第0層之下就是**有2個3x3的array**,也就是
```python
[[1. , 2. , 3. ],
[4. , 5. , 6. ],
[7. , 8. , 9. ]]
```
```python
[[0.1, 0.2, 0.3],
[0.4, 0.5, 0.6],
[0.7, 0.8, 0.9]]
```
要加起來也就是:
```python
np.array([[1. , 2. , 3. ],
[4. , 5. , 6. ],
[7. , 8. , 9. ]]) +
np.array([[0.1, 0.2, 0.3],
[0.4, 0.5, 0.6],
[0.7, 0.8, 0.9]])
```
答案跟`np.sum(a, axis=0)`是一樣的。
## axis=1
那麼`np.sum(a, axis=1)`也就是把「第1層」之下的東西都加起來`a`的shape是(2, 3, 3)所以「第1層」有2個分別是
```python
[[1. , 2. , 3. ],
[4. , 5. , 6. ],
[7. , 8. , 9. ]]
```
```python
[[0.1, 0.2, 0.3],
[0.4, 0.5, 0.6],
[0.7, 0.8, 0.9]]
```
這2個各自會產生各自的結果先看第一個。我們要把「第1層」之下的東西都加起來「第1層」之下的東西就是
```python
[1. , 2. , 3. ],
[4. , 5. , 6. ],
[7. , 8. , 9. ]
```
我要把他們加起來,也就是`[1. , 2. , 3. ] + [4. , 5. , 6. ] + [7. , 8. , 9. ] = [12., 15., 18.]`
再看第二個我們要把「第1層」之下的東西都加起來「第1層」之下的東西就是
```python
[0.1, 0.2, 0.3],
[0.4, 0.5, 0.6],
[0.7, 0.8, 0.9]
```
我要把他們加起來,也就是`[0.1, 0.2, 0.3] + [0.4, 0.5, 0.6] + [0.7, 0.8, 0.9] = [1.2, 1.5, 1.8]`
所以`np.sum(a, axis=1)`的答案就是:
```python
[[12., 15., 18.],
[1.2, 1.5, 1.8]]
```
## axis=2
那麼`np.sum(a, axis=2)`也就是把「第2層」之下的東西都加起來`a`的shape是(2, 3, 3)所以「第1層」有2個分別是
```python
[[1. , 2. , 3. ],
[4. , 5. , 6. ],
[7. , 8. , 9. ]]
```
```python
[[0.1, 0.2, 0.3],
[0.4, 0.5, 0.6],
[0.7, 0.8, 0.9]]
```
而這2個第1層又各自有3個的第2層分別是
```python
[##第0層
[##第1層-0
[1. , 2. , 3. ] ##第2層-0 <-- 裡面要加起來
[4. , 5. , 6. ] ##第2層-1 <-- 裡面要加起來
[7. , 8. , 9. ] ##第2層-2 <-- 裡面要加起來
],
[##第1層-1
[0.1, 0.2, 0.3] ##第2層-0 <-- 裡面要加起來
[0.4, 0.5, 0.6] ##第2層-1 <-- 裡面要加起來
[0.7, 0.8, 0.9] ##第2層-2 <-- 裡面要加起來
]
]
```
總共有6個加起來之後就變成
```python
[
[
[1. , 2. , 3. ] # 1+2+3 = 6
[4. , 5. , 6. ] # = 15
[7. , 8. , 9. ] # = 24
],
[
[0.1, 0.2, 0.3] # 0.1+0.2+0.3 = 0.6
[0.4, 0.5, 0.6] # = 1.5
[0.7, 0.8, 0.9] # = 2.4
]
]
```
所以`np.sum(a, axis=2)`的答案就是:
```python
[[ 6. , 15., 24. ],
[ 0.6, 1.5, 2.4]]
```

View File

@@ -1,27 +0,0 @@
---
tags: 運動傷害, 仰臥起坐, 骨盆前傾
aliases:
date: 2023-04-18
time: 11:12:34
description:
---
## 缺點
會讓髖屈肌hip flexors收縮造成骨盆前傾。
````col
```col-md
![[Pasted image 20230418111423.png]]
```
```col-md
![[Pasted image 20230418111512.png]]
```
```col-md
![[Pasted image 20230418111538.png]]
```
````
## 參考來源
- [Train Like One Punch Man (Does It Really Work?) - YouTube](https://www.youtube.com/watch?v=Ga6Vr3Ec2Mc)

View File

@@ -1,4 +0,0 @@
感光元件上的光電二極管分割成四份,同時能針對垂直與水平方向偵測,也因此在對焦精細度與速度都大幅提昇。
![[十字型四像素自動對焦.jpg]]
來源:[捕捉生命美好時刻呼應攝影師的旗艦機身om-system-om-1](https://www.yuanyu.tw/camera/blog/2022/03/23/%E6%8D%95%E6%8D%89%E7%94%9F%E5%91%BD%E7%BE%8E%E5%A5%BD%E6%99%82%E5%88%BB%EF%BC%8C%E5%91%BC%E6%87%89%E6%94%9D%E5%BD%B1%E5%B8%AB%E7%9A%84%E6%97%97%E8%89%A6%E6%A9%9F%E8%BA%AB%EF%BC%9Aom-system-om-1/)

View File

@@ -1,19 +0,0 @@
- 五十嵐真貴
- 五十嵐清心
- 麻古大苑子
- 大佑池久
- 林島西郎
- 代志大条
- 粉穗幸谷哲
- 梅山筱鹿雍
- 梅川內庫
- 苗栗小五郎
- 森上梅友前
- 森上梅代前
- 綾北舞吉
- 田中賀雅郎
- 箱郎津桃
- 甲賀稻相報
- 里西太戈郎
- 久住歹丸郎
-

View File

@@ -1,14 +0,0 @@
- 初聞不知曲中意,再聽已是曲中人。
- 讀書,就是要先將厚書讀薄,再將薄書讀厚。
- 種一棵樹最好的時候,一個是過去,一個是現在 - dead aid by Dambisa Moyo [^1] ^901833
- ![[20201224 - 寫作是最好的自我投資#^d7f87c|葉勝陶先生:「語言是有聲無形的文章,文章是有形無聲的語言。」]]
- ![[20201224 - 寫作是最好的自我投資#^fad99d|蘇格拉底:「未經審查的人生沒有價值。」]]
- ![[20201224 - 寫作是最好的自我投資#^fd93cf|「專業,二十一世紀你唯一的生存之道。」 - 大前研一]]
- ![[20201224 - 寫作是最好的自我投資#^a00bcf|「任何一個好產品都是聰明人用笨功夫做出來的」 - 咪蒙]]
- ![[20201224 - 寫作是最好的自我投資#^7e896d|「天才的唯一秘密,就在於刻意練習,用自己一套系統性的方法,不斷突破自己的邊界」 - 刻意練習,安德斯.艾瑞克森]]
- ![[20230206 - 卡片盒筆記#^f3d5d9|康德:「不成熟,是指若無他人的教導就不會運用自己的理解力...]]
- ![[20230206 - 卡片盒筆記#^1b06a6|我們並不是無法從經驗中學習,而是要再經驗發生之後快速獲得反饋(而且頻率密集),才能從自身的經驗中學到東西。]]
- ![[20230801 - 蘇格拉底哲學特快車#^8f104c]]
[^1]: [“種一棵樹最好的時間是十年前,其次是現在”出自哪裡?](https://zhidao.baidu.com/question/652202353537726525.html)

View File

@@ -1,99 +0,0 @@
所謂的 「**向右曝光**」指的是,在拍照時參考色階表、直方圖,讓整個色階往右邊靠攏一些,也就是照片「拍亮一點」,這就是向右曝光。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220702170456_92.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖01
我們以這張野柳女王頭為例,所謂的「**向右曝光**」,是透光快門、光圈、感光度三者的組合出不同的亮度,讓色階表、直方圖「朝著右邊靠攏」,比如上圖 01我分別使用了 F7.1ISO 100快門自 1/160逐漸加快一倍 1/320、1/640、1/1250拍出這四張照片。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220702170502_17.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖02
我們可以發現,隨著快門每提昇一格,進光量也差相差一格,色階表也逐漸靠左,反之隨著快門每降一格,進光量也提昇一倍,色階表也逐漸靠右。
另一方面,我們也透過 LR 進行簡單的後製調整,四張照片皆將亮部、白色 -100 以獲得高光細節,而陰影的部分僅提高 +50。
另外再計算實際曝光量不同,給不同張照片在「曝光度」上,增加對應的 EV 值,以讓這四張照片,獲得較為一致的色階表現。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220702170506_64.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖03
而「向右曝光」的好處,是能獲得較佳的細節表現,所以我們就比較這四張照片逆光下女王頭紋路上的表現,看看透過 LR 調整過後細節如何。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220702170511_19.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖04
從上方細節照片比較,我們可以發現,逆光下透過「曝光調整」以及透過「陰影」提昇逆光下細節 向右曝光的照片 (也就是拍的較亮的照片),獲得的細節最好;反之一開始拍的較暗的照片,在 LR 提昇感光度、陰影等動作,在相同的 ISO 100 下,細節表現最差。
這就是「向右曝光」所能獲得的好處,能獲得較好的細節表現。
## 觀注點的觀念
等一下,我們還沒講完,如果「向右曝光」這概念這麼容易就驗證了,就不會眾說紛芸,仍有些人堅持「寧可欠曝的拍,也不拍的稍亮」這種拍法,但這樣子的說法,又與我們前面的實驗又有些矛盾,於是我們要再進一步往下講一個觀點 觀注點的觀念
![向右曝光](https://hojenjen.com/wp-content/uploads/20220702170517_70.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖05
眼尖的朋友會發現,上圖的部分,雖然已經透過 LR 處理,達到這四張照片曝光較為一致的照片,但是在「遠處太陽高光細節」部分,一開始拍的偏暗的照片,高光細節保存的比較好,但也因為高光細節保存的比較好,在逆光陰影下的細節保存的卻也是最差的。
重點就是在這裡 一開始拍偏暗的照片,高光細節保存較好,逆光陰影細節保存較差,一張照片,即使是採用 RAW 檔無壓縮來拍攝,動態範圍是無法無限的保存眼前每一吋亮部與暗部細節,你必需「有所取捨」,取你所要的,捨你無趣的。
> “向右曝光的精髓即是,選擇一張照片你最為觀注點,並且將它拍的稍亮一些,以保留較多的細節,以供後製上,能還原更多細節回來”
![向右曝光](https://hojenjen.com/wp-content/uploads/20220702170521_97.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖06
也就是說,拍一張照片,你心裡要有二個想法,**其一**是我們無法透過一張照片「兼顧亮部與暗部細節」,**其二**就是選擇你的「觀注點」,選擇你的觀注點,並且嚐試著將觀注點「拍亮一些」,而不去管其它的部分,這才是「向右曝光」的觀念。
我們再看另外一個例子,將照片選擇「向右曝光」「拍亮一點」,是對照片細節比較好的選擇。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220710171824_31.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖07
這組照片,左邊這張刻意的拍暗,也是常聽到的「寧欠勿曝」的拍法,右邊這張則是拍的偏亮一些,我們同樣的來比較裡頭的細節差別。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220710171827_95.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖08
接著我們將二張照片經由 LR 調整過後,並且計算二張 EV 值的差別,將二張照片調整為曝光一致。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220710171829_87.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖09
放大二張照片相同地方,分別比較「亮部」與「暗部」細節。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220710171833_52.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖10
首先是暗部細節,發現一開始「寧欠勿曝」觀念所拍出「欠曝」的照片,經由 LR 調整後,雜訊與細節明顯的被破壞許多。
![向右曝光](https://hojenjen.com/wp-content/uploads/20220710171834_62.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖11
至於亮部細節,採用「向右曝光」拍出偏亮的照片,在高光的部分也沒有因此失去細節。
## 向右曝光 結論
![向右曝光](https://hojenjen.com/wp-content/uploads/20220702170526_63-scaled.jpg "[教攝影120] 向右曝光 是什麼?向右曝光原則,保留更多照片細節")
###### 圖12
拍一張照片,我們總是希望能盡可能的滿足「高光、低光」細節,雖然 RAW 檔能幫我們保留住許多細節,不放大看的話,其實都還算讓人滿意,一但放大看細節,多少的細節流失,全都藏在細節裡,不被我們發現。
如果想要保留「最多的高、低光」細節,我們有很多方法來達成,比如說使用 HDR、GNF 漸層減光鏡、黑卡等相關設備與技巧,但如果不使用這些方法,僅以一張照片為主的話,那麼你就要採取「向右曝光」的觀念,選擇一張照片中,你最想保留最好細節的「觀注點」將其拍亮一些,以便在後製過程中,能保留最佳的細節。
當然,一但這麼做,在硬體的限制下,即有限的動能範圍下,勢必會失去部分其它「非觀注」部份細節,「向右曝光」這觀念,則是除了曝光的組合、構圖原則下,你該進一步思考的重點。
----------
## 來源參考
- [向右曝光 是什麼?向右曝光原則,保留更多照片細節](https://hojenjen.com/exposure-to-the-right/)

View File

@@ -1,6 +0,0 @@
- 這是對個人成長阻礙最大的心態。害怕、逃避反饋的人,擔心反饋可能會傷害到自己的好形象,或許短時間內會覺得自己很優異,但是很快會在真正的表線上落後。諷刺的是,很多聰明、天賦異稟的學生,因為過去自身天賦異稟受到讚美,而不是因為自己的表現兒受到讚揚,因此多半只想完整保持住這個形象,不想讓自己接觸到新的挑戰,不想從失敗中學習。[^1]
[^1]: 卡片盒筆記P137。

View File

@@ -1,71 +0,0 @@
# 峰值對焦如何協助拍攝
無論您使用 DSLR 或無反射鏡相機,了解這種對焦模式如何使影像變得清晰以確保相片品質。
![[Pasted image 20230426213513.png]]
## 什麼是峰值對焦?
如果您沒有在新相機上嘗試傳統的鏡頭是因為沒有自動對焦,那麼峰值對焦 (也稱為輪廓強調) 就是解決方法。峰值對焦是即時對焦模式,利用相機的「即時檢視」對焦輔助,在觀景窗中以假色覆蓋來強調輪廓對比區。這樣可以協助您在拍攝前決定影像的哪個部分在焦點內。
峰值對焦起初是由錄影師使用,但是得利於現代技術的進展,已不再限用於攝影機,而是廣泛見於大多數的靜止數位相機。所有較新型的無反射鏡相機都具有此功能。如果您擁有的是 [DSLR 相機](https://www.adobe.com/tw/creativecloud/photography/discover/dslr-camera.html),這個功能的名稱可能是「即時檢視的對焦輔助」。
由於此效果只能在光線抵達感應器後啟動,您也可以使用較舊的手動鏡頭來進行峰值對焦。「即使您使用的是沒有此功能的不同相機,它也完全不難做到,」攝影師 Patricia Davidson 表示。
![[Pasted image 20230426213534.png]]
## 峰值對焦的運作方式
峰值對焦所根據的原則在於,一個影像最亮的區域會有高對比,在「即時檢視」顯示中物件的邊緣和紋理會呈現明亮的白色或彩色。一種演算法會即時分析影像,當一個物體進入對焦區時,鮮明的邊緣會在該圖片的特定區域產生密集曝光。
然後一個假色圖層會覆蓋在該區域。在大多數的相機中,您可以根據自己的喜好設定覆蓋顏色並變更偵測的敏感度。
![[Pasted image 20230426213547.png]]
## 峰值對焦的用途
峰值對焦讓攝影師能以比典型即時檢視法更快的速度,將手動鏡頭對焦。它很適合用於很難迅速評估對焦區域的場景。在光線昏暗或很難用肉眼適當對焦的情況下進行拍攝時,這個功能可以派上用場。
如果您不想使用自動對焦來捕捉移動緩慢的物件,如在空中移動的雲,那麼峰值對焦會是適合採用的技術。您還可以用它來為鏡頭找到適當的景深,但要注意調整,包括您的 [ISO](https://www.adobe.com/tw/creativecloud/photography/discover/iso.html)。
「您通常會把它設得較高或較低,」攝影師 Jason Weingart 表示。「如果您在拍攝[淺景深](https://www.adobe.com/tw/creativecloud/photography/discover/shallow-depth-of-field.html)的鏡頭,如 1.4 f-stop那麼最好將峰值對焦的敏感度設高一點。這樣不會有太多清晰的物體效果較好。如果你在拍景深真的很深的鏡頭那麼可以把敏感度設得低一點使更多東西變得清晰。」
**選擇手動,而非自動
**峰值對焦讓您可以運用許多手動鏡頭這使得手動對焦變得更加輕鬆自如。「一般在使用手動對焦時比較常使用它自動對焦較少用因為在手動對焦時可以在轉動對焦環時看到不同區域突顯出來。在手動對焦時使用它的好處比自動對焦時多但是無論是哪一種對焦當然都可以使用它」Weingart 說。
````col
```col-md
![[Pasted image 20230426213611.png]]
```
```col-md
![[Pasted image 20230426213616.png]]
```
````
## 對焦
在立即用數位相機測試之前,先了解峰值對焦的四個要素以使你的下一張相片精彩無比。
1. 峰值顏色:
在相機的設定選單,自訂峰值以符合需要捕捉的場景。舉例來說,修改增強輪廓的顏色以便與影像形成對比,讓輪廓變得更加清晰可見。
2. 峰值等級:
除了顏色以外,還可變更下一張肖像照的峰值等級。一般而言,有兩到四個選項可供選擇,等級越高會產生越清晰的輪廓,而等級越低則越需判斷。
3. 切分影像:
如同測距器和舊裂焦螢幕,切分影像是一種「即時檢視」對焦輔助。進行切分影像時,對著影像旋轉對焦環,直到影像的不同部分對齊。
4. 放大:
要知道捕捉的影像是否清晰,唯一方法是在「即時檢視」模式透過光學觀景窗放大所有細節。使用峰焦對焦或切分影像並做到最好,然後放大影像以便修飾焦點位置。
![[Pasted image 20230426213640.png]]
## 峰值與谷值
在某些情況下,並不建議使用峰值對焦。當相機鏡頭的景深特別淺時 (1.2,全片幅) ,最好不要使用。在這些情況下,所需捕捉的場景太淺,即使最好的演算法可能也無法精確顯示出最清晰的區域。
**著重正確的事物
**“「峰值對焦是相機內可用的絕佳工具可讓你在外拍攝時盡量取得最清晰的影像」Davidson 說。「在後製處理期間,當我用 [Adobe Photoshop Lightroom](https://www.adobe.com/tw/products/photoshop-lightroom.html) 或 Photoshop 處理影像時,這只是讓我不必擔心清晰度而已。」
如果在野外沒有獲得想要的結果,您可以使用 Adobe 應用程式中的 Adobe Photoshop 建立圖層並調整影像清晰度。 在 Lightroom 中匯出和編輯這些影像,然後在工作時將它們來回順暢地移至 Photoshop。峰值對焦可以替您節省一個步驟但有了 Adobe您總是可以在後製期間進行更多必要的調整。
## 來源
- [什麼是峰值對焦?| 入門指南 | Adobe](https://www.adobe.com/tw/creativecloud/photography/discover/focus-peaking.html)

View File

@@ -1 +0,0 @@
- 今天沒有時間,所以信的內容變得很長

View File

@@ -1,13 +0,0 @@
---
tags:
aliases:
date: 2023-04-25
time: 21:48:33
description:
---
積極尋求並歡迎各種反饋,不論正面還是負面,是長期獲得成功(還有快樂)的一個重要因素[^1]。
[^1]: 卡片盒筆記P137。

View File

@@ -1 +0,0 @@
我們對現在的想法與未來的想法大不相同。

View File

@@ -1,9 +0,0 @@
---
tags: 核心肌群
aliases:
date: 2023-04-24
time: 09:21:28
description:
---
- [訓練核心肌群 錯誤動作超傷腰! 復健科醫師 正確示範 橋式 死蟲式 狗鳥式 棒式 【 痠痛堡健室 】 侯鐘堡醫師 - YouTube](https://www.youtube.com/watch?v=KZ4mzxjgfmY)

View File

@@ -1,12 +0,0 @@
##### 2020-11-16 - 披薩,謙謙
##### 2020-11-23 - 汕頭火鍋Jiachi
##### 2020-11-30 - 瓦城Awin
##### 2020-12-07 - 福星Jiachi
##### 2020-12-13 - 21世紀睿睿 ^98f39d
##### 2020-12-21 - Coco謙謙 ^a0b44c
##### 2020-12-28 - 翰林茶坊Awin
##### 2021-01-04 - 一風堂老婆、謙謙、燒肉丼飯Awin、睿睿 ^347d91
##### 2021-01-14 - Coco睿睿
##### 2021-01-18 - 貝里尼披薩,謙謙
##### 2021-02-22 - 三合院Awin
##### 2021-03-02 - CocoJiachi

View File

@@ -1,6 +0,0 @@
皮質醇會直接妨礙認知與判斷能力。
壓力會引發皮質醇釋放影響大腦的幾個區域例如前額葉皮質區、杏仁核amygdala、海馬體hippocampus等等。
前額葉皮質區對於抑制衝動極為關鍵。 [^1]
[^1]: [[20230418 - 窮人的經濟學]] p.178

View File

@@ -1 +0,0 @@
- [我的個人知識管理系統 - Pin 起來!](https://pinchlime.com/blog/my-personal-knowledge-management-system-2023/)

View File

@@ -1,41 +0,0 @@
### 802.11k
802.11k協議的功能是**Radio Resource Measurment**簡單說就是提供找到最好的AP的信息。
在WLAN中終端設備總是傾向於連接信號最好的那個AP而在實際應用中這種邏輯可能會造成某個AP被過度使用而信號稍弱的AP則沒有怎麼用到從而導致網絡的整體利用效率下降。實現802.11k協議的無線網絡中如果信號最好的AP已經滿載則終端設備會連接到信號稍弱的那個AP。
協議步驟:
1. AP決定要踢掉某個終端設備
2. 通知終端設備變換到另一個AP
3. 終端設備請求周圍AP的列表
4. AP給出site report
5. 終端設備根據site report連到某個AP
[IEEE 802.11k-2008 - Wikipedia](https://en.wikipedia.org/wiki/IEEE_802.11k-2008)
### 802.11v
802.11v是802.11協議族的**WNMWireless Network Management**標準802.11v協議允許終端設備交換網絡拓撲的信息,包括射頻環境。
802.11v描述了WNM的增強包括
- **Network assisted Power Savings****網絡輔助節能**幫助終端設備睡眠更長時間比如手機等設備通過每隔一段時間跟AP通訊一次來確保跟AP沒有斷開
- **Network assisted Roaming****網絡輔助漫遊**允許WLAN發送信息給終端來確保終端能連接更好的AP。這可以帶來兩點好處
1. 負載均衡
2. 讓信號不好的終端設備更換AP
[IEEE 802.11v-2011 - Wikipedia](https://en.wikipedia.org/wiki/IEEE_802.11v-2011)
### 802.11r
802.11r的功能是**快速BSS切換**FT**Fast Basic Service Set Transition**),也稱為**快速漫遊****fast roaming**是802.11協議的補充。
在802.11協議中AP的切換是由設備控制的其邏輯是在能連接到的信號中挑選信號最好的那個連接連接一直持續到信號低於一個閾值通常非常弱才會斷開然後繼續反复
在802.11的初期切換handoff這個操作是非常簡單的一共只有4個握手信息需要傳遞但是隨著發展[802.11i](https://www.easyatm.com.tw/wiki/802.11i)802.11X802.11e等協議的加入握手的信息越來越多導致切換AP的時間越來越長。
802.11r通過重新簡化越來越複雜的安全握手協議來實現FT。
[IEEE 802.11r-2008 - Wikipedia](https://en.wikipedia.org/wiki/IEEE_802.11r-2008)

View File

@@ -1,197 +0,0 @@
## HDR sensor 原理介紹
### 1. 什麼是sensor的動態範圍dynamic range
sensor的動態範圍就是sensor在一幅圖像裡能夠同時體現高光和陰影部分內容的能力。
用公式表達這種能力就是:
$DR = 20log\frac{i_{max}}{i_{min}}$ // DB
$i_{max}$是sensor的最大不飽和電流也可以說是sensor剛剛飽和時候的電流
$i_{min}$是sensor的底電流blacklevel
### 2. 為什麼HDR在成像領域是個大問題
在自然界的真實情況有些場景的動態範圍要大於100dB。
人眼的動態範圍可以達到100dB。
Sensor 的動態範圍:高端的>78dB消費級的60dB上下
所以當sensor的動態範圍小於圖像場景動態範圍的時候就會出現HDR問題----不是暗處看不清,就是亮處看不清,有的甚至兩頭都看不清。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095159571-173615205.png)
上圖暗處看不清-前景處的廣告牌和樹影太暗看不清。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095219849-2036928694.png)
上圖亮處看不清--遠處背景的白雲變成了一團白色,完全看不清細節。
### 3. 解決HDR問題的數學分析
根據前邊動態範圍公式
$DR = 20log\frac{i_{max}}{i_{min}}$ // DB
所以從數學本質上說要提高DR就是提高$i_{max}$,減小$i_{min}$
對於10bit輸出的sensor,從數學上來說,$i_{max}=1023$$i_{min}=1$
動態範圍DR = 60
對於12bit輸出的sensorDR = 72
所以從數學上來看提高sensor 輸出的bit width就可以提高動態範圍從而解決HDR問題。
可是現實上卻沒有這麼簡單。
提高sensor的bit width導致不僅sensor的成本提高整個圖像處理器的帶寬都得相應提高消耗的內存也都相應提高這樣導致整個系統的成本會大幅提高。所以大家想出許多辦法既能解決HDR問題又可以不增加太多成本。
## HDR Imaging Digital Overlap
Digital Overlap是目前比較流行的sensor HDR 技術在監控與車載相機等領域的應用非常廣泛。Sony於2012年在監控相機市場首先推出基於DOLdigital overlapHDR技術的圖像傳感器之後OV與Onsemi也都推出了與DOL類似的HDR技術的圖像傳感器而且應用領域不局限於監控這種傳統HDR imaging的市場而且擴展到了Automotive camera市場。現在Sony已經推出了第二代支持虛擬通道DOL HDR技術的sensor。
### 1. 什麼是時域多幀HDR技術
相機在時間上連續輸出由欠曝到過曝的圖像然後做圖像融合得到HDR圖像。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095356429-1225500631.png)
 融合後HDR圖像
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095500036-1147852374.png)
比較典型的一種融合方法是根據luminancecontrastmotion等條件對第K幀圖像的像素`[ij]`給出權重。$W_{ij,k}$是第K幀位置ij像素的權重$x_k(i,j)$是原始像素值,$x_f(i,j)$是融合後的像素值。公式如下:
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095726682-775383621.png)
對彩色圖像,權重的計算會考慮色彩的飽和度等因素。
### 2. 傳統時域多幀HDR技術存在的局限
由於傳統時域多幀是基於連續曝光的整幀圖像Frame Based進行融合所以圖像之間的間隔時間就是一幀圖像的周期由此會產生很多artefacts
1. 場景內物體增減
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095915848-294335122.png)
2. 近距離物體快速移動形成拖影
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412095948969-1372705839.png)
3. Color artefact
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100054082-388198519.png)
Frame based的多曝光HDR技術常用於still image 的capture也有視頻HDR 採用這種技術比如sensor以60fps的幀率交替輸出長短曝光融合後輸出30fps的HDR圖像。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100333302-468472209.png)
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100418434-203196772.png)
早期的HDR video有採用這種技術自從DOL技術出現後這種Frame based Video HDR技術就逐漸退出歷史舞台了。
### 3. 什麼是DOL HDR
DOL HDR 也叫做 line interleaving HDR 技術。以兩曝光 DOL 為例sensor每行會以長短曝光兩次先後輸出從readout角度來看就是長曝光幀與短曝光幀line interleaving 依次輸出如下圖第一行L輸出第一行S輸出第二行L輸出第二行S輸出以此類推。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100529435-170192984.png)
frame based HDR長短曝光幀的間隔是一個幀週期也就是必須一整幀曝光結束再開始一整幀曝光如下圖
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100546546-1096836968.png)
 對於DOL HDR而言由於line interleaving行的交織存在兩幀的overlap等於一幀輸出沒結束下一幀就來了長短曝光幀的間隔大大縮小了。
從下圖可見長曝光幀與短曝光幀overlap了一部分所以這種技術叫digital overlap。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100703466-1912064866.png)
### 4. DOL 長短曝光幀的時間間隔
前邊說過Frame based HDR 的長短曝光幀的間隔是一幀的時間,那麼 DOL HDR 的長短曝光幀的時間間隔是多大呢?
如果先輸出長曝光的話
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100717894-1595515136.png)
 如果先輸出短曝光的話
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100822480-184812752.png)
 T= long exposure 的時間
所以當然是先輸出長曝光這樣T時間間隔會更小。
### 5. DOL 長短曝光時間比與動態範圍擴展
以兩曝光DOL 為例
$\text{Exposure ratio} = \frac{\text{Long exposure time}}{\text{short exposure time}}$
假設Exposure ratio = 16假設在信號沒有飽和的條件下相當於曝光最大值增大了16倍$2^4$。也就是動態範圍擴大了4個bit。
以此類推每增加一個曝光幀如果exposure ratio =16動態範圍就可以擴大4bit。
按照一般HDR sensor 單曝光為12bit來算的話4曝光就可以讓sensor輸出的動態範圍擴大到24bit12+4+4+4)。
exposure ratio 也不是越大越好exposure ratio會受到三方面的製約圖像質量sensor設計以及isp line delay buffer。
從圖像質量上來說短曝光時間越短圖像噪聲越高長曝光越長motion的影響越大。Exposure Ratio越大在圖像融合後的SNR drop也越大。
從sensor設計上來說長短曝光之比受到讀出電路的限制sony的DOL第二代採用虛擬通道技術一定程度改善了這個限制。
從ISP的角度來說line delay buffer 也限制了最大曝光時間。在短曝光行出來之前第一個長曝光行應該還在delay buffer裡這樣才能兩者對齊好給後面的frame stitch操作。而長短曝光比越大需要的line delay buffer就越大。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412100950046-469714366.png)
 對於sensor做hdr融合case而言line delay buffer size就是固定的所以ISP傾向於在isp這端做HDR融合這樣可以更靈活的設計。Maver注對於車載而言帶寬是個主要關注點所以大部分用戶不會選擇在ISP側做HDR融合
### 6. DOL的局限
Sony在推出DOL的時候宣傳DOL是**準同時**輸出長短曝光。既然是**準同時**那就還不是同時所以也會有一些典型時域多幀HDR的圖像質量問題同時DOL也有一些特有的IQ問題。
1. HDR Transition Artefacts
可以從下左圖看到composition noise造成的edge這種edge有時候會誤導機器視覺。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101147526-216923810.png)
從DOL hdr的noise profile可以看出來如下圖在HDR拼接處可以看到SNR的顯著變化叫做snr drop當SNR drop大的時候就會出現明顯的edge如上圖所示。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101213313-292299226.png)
曝光比越小SNR drop就越小, 可以想見如果曝光比為1也就沒有snr drop了。反之曝光比越大動態範圍越大snr drop也越大如下圖所示。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101406902-1922414693.png)
2. Flicker
 交流電供電光源造成的flickering如下圖
 ![[Pasted image 20220908123355.png]]
交流電供電光源造成的flickering如下圖
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101441184-199810703.png)
為了避免banding就得讓最小曝光時間是半週期的整數倍。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101520036-1816151275.png)
這樣就不會出現banding了。但是由於最小曝光時間變大了動態範圍就損失了。所以有時候為了保證不損失動態範圍就得容忍Flickering。這就得看應用場景了。
類似的問題發生在PWM供電的Led光源上尤其是交通信號燈以及汽車信號燈如下圖所示
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101758213-2089228974.png)
sensor的長曝光幀能catch到led 的light pulse但是短曝光幀就沒catch到這樣也會造成flickering甚至信號燈圖像的丟失。
這種flicker或者信號燈信息丟失的問題在車載成像系統上是致命的所以車載HDR現在更傾向採用spatial based HDR技術比如Sony採用的sub pixel技術或者OV 採用的split pixel技術。
## HDR imaging split/sub pixel 技術
我們在上一期講了時域多幀HDR技術Digital Overlap. 現在在監控領域的WDR sensor主要採用這種技術如下圖利用不同的sensor曝光藍色線所示覆蓋不同的動態範圍再把多曝光圖像stitching起來紅色線所示達到最大的動態範圍輸出。Sony的imx290OV的ov4689都是這個類型典型sensor。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101814735-1497687033.png)
車載領域也廣泛使用Temporal domain HDR技術但是隨著車載相機在ADAS與自動駕駛領域的迅速發展對圖像質量有著特別的需求導致Temporal domain HDR技術不能滿足需要。車載比較典型的兩個IQ需求是不能有motion artefact 和LED flickering。
缺點如下:
1. motion artefact
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412101934829-127704344.png)
 
2. LED flickering
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102051683-2142159974.png)
Temporal HDR 在原理上就存在這些缺陷所以要解決這個問題就需要使用其他的HDR體制Spatial HDR 技術是現在車載領域的主流解決方案。
## Spatial HDR
比較典型的是Sony sensorimx390/490採用的Subpixel技術與OV sensorovx1a)採用的split pixel技術他們都屬於SpatialHDR技術範疇其基本原理是一致的。
1. 大小pixel的分離結構
與普通CFA的不同大小pixel技術的sensor在相鄰位置有一大一小兩個pixel他們空間上非常接近可以認為對空間採樣相同。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102145785-1322226290.png)
 由於pixel的大小不同物理上的sensitivity不同FWC也不同會產生與時域HDR一樣的不同曝光效果形成了對不同動態範圍的覆蓋。如下圖可以看到LPDLarge Pixel Diode與SPDSmall Pixel Diode是如何擴展動態範圍的。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102210732-185905022.png)
 
2. 大小分離pixel的電路設計
典型的大小分離pixel的電路如下圖所示
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102348969-47900883.png)
 SPD和LPD分別用黃色的二極管標出。CGCconversion gain control與TGtransfer gate控制了photo diode 向FD充電當$TG_S$使能時FD接收SPD來的電荷RS會使能讓FD的電荷轉存出來。然後當$TG_L$使能時FD接收LPD來的電荷RS會再一次使能讓FD的電荷轉存出來。RST負責在每一次轉存後把FD電容清空。這樣的電路結構就實現了LPD和SPD的分別讀出。這個部分的電路時鐘非常快所以可以認為大小像素是同時曝光的。後面的讀出電路也會把大小像素同時讀出由下圖可見$T_{LPD}$ 與 $T_{SPD}$ 是同時的。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102537918-1013568966.png)
 
3. 大小像素HDR與時域HDR在motion artefact上的比較
 由下圖可以看出基於大小像素的HDR與時域HDR在拍攝運動物體上的mot ion artefact比較。
左圖是基於大小像素的圖像完全沒有motion artefact右圖是時域HDR可以看到明顯的motion artefact。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102637455-473076896.png)
對於這種更挑戰的場景舞廳的旋轉光球左圖是大小像素HDR右圖是時域HDR可以看到時域HDR的圖像把小的運動光點都混到了一起。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102730236-58004651.png)
4. 大小像素與Dual conversion gain的結合
單獨靠大小像素只能形成兩個曝光的圖像再結合之前介紹過的DCG技術在大小pixel分別配合HCGLCG就可以形成4曝光。
假設單曝光輸出12bit曝光比是16那總共的動態範圍可以達到24bit輸出。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102823049-1006168382.png)
5. 兩種場景的切換
如下圖橫軸是場景的光亮度縱軸是SNR紅色曲線是LPD像素的SNR曲線藍色曲線是LPD像素的SNR曲線。
![](https://img2020.cnblogs.com/blog/1251718/202004/1251718-20200412102839110-992140481.png)
SPD的飽和點更高而LPD的低光SNR更高。這兩條曲線說明了大小像素這種設計可以很靈活的適配場景的變化當場景非常亮的情況就用大小像素融合輸出這樣可以擴大動態範圍。
當場景非常暗的情況就完全切換到LPD像素因為它的SNR更高。
## 來源
- [HDR sensor 原理介紹- 吳建明wujianming - 博客園](https://www.cnblogs.com/wujianming-110117/p/12684011.html)

View File

@@ -1,2 +0,0 @@
# 介紹文
- [量子電腦:從原理、實作到應用](https://medium.com/@kelispinor/%E9%87%8F%E5%AD%90%E9%9B%BB%E8%85%A6%E6%A5%B5%E7%B0%A1%E4%BB%8B-short-introduction-to-quantum-computer-a7b159861786)

View File

@@ -1,4 +0,0 @@
電池的容量是用"mAH毫安培小時"來表示的例如一塊電池標有3000mAH 當我們用3000mA的電流也就是3A放電時可以放電一個小時則電池的放電倍率是1C如果以6A電流放電則可以用30分鐘則屬於2C。
# 鋰離子電池多少C是什麼意思
C用來表示電池充放電電流大小的比率即倍率。充放電倍率=充放電電流/額定容量如1200mAh的電池0.2C表示240mA1200mAh的0.2倍率1C表示1200mA1200mAh的1倍率。50C表示50 * 1200 = 6000mA。

View File

@@ -1,2 +0,0 @@
亦稱為「產能利用率」,是用來衡量機器設備使用效率的重要指標之一,簡單來說就是用機器設備可以運轉的時間(即負荷時間)與扣除掉因保養、維修、假日等的停機時間之比率,其計算公式如後:稼動率=(負荷時間-停機時間)/ 負荷時間 。

View File

@@ -1,25 +0,0 @@
## Container
### list container
`docker ps`會列出執行中的container但是停止的不會
```bash
sudo docker ps
```
如果也要列出已停止的container
```bash
sudo docker ps -a
```
### 刪除container
Container必須是停止狀態才可以刪除
```bash
sudo docker rm <CONTAINER_ID>
```
## Image
### list images
```bash
sudo docker image ls
or
sudo docker images
```