【新品上市+開箱】極致效能、散熱裝置,我全都要!十銓 T-FORCE CARDEA IOPS 1TB M.2 PCIe SSD
https://www.coolpc.com.tw/tw/shop/ssd/cardea-iops/
一次擁有兩款專利散熱配件,再享原廠五年保固!
不論是升級還是添購新的遊戲儲存碟,當然要挑選十銓T-FORCE CARDEA IOPS 1TB PCIe M.2 SSD呀!因為擁有目前業界PCIe 3.0 最高規格680K/670K IOPS 4K隨機讀寫效能,搭配3400/3000 MB/s循序讀寫速度,能縮短資料和遊戲讀取時間,不再糾結讀寫速度!除此之外還有內附兩款獨家專利超薄石墨烯和鋁鰭片式散熱模組,可以自行選擇使用,讓你一次擁有效能和散熱...#原價屋開箱 #原價屋促銷 #Gen3 #IOPS #SSD #石墨烯 #鋁鰭片散熱模組
同時也有1部Youtube影片,追蹤數超過7萬的網紅Tech Dog,也在其Youtube影片中提到,#Apacer #PPSS25 #SSD #宇瞻 #挖礦 #礦工 ▌建議開啟 4K 畫質 達到高品質觀影享受 ◤ 科技狗仔專屬優惠 ◢ ✨ PChome ➥ 登錄「3cdog」折價券序號 單件折 NT$500 .Apacer PP3480 PCIe M.2 512GB NAS SSD 👉 ht...
「4k iops」的推薦目錄:
- 關於4k iops 在 原價屋coolpc Facebook 的最讚貼文
- 關於4k iops 在 ADATA Facebook 的精選貼文
- 關於4k iops 在 科技狗 3C Dog Facebook 的最佳貼文
- 關於4k iops 在 Tech Dog Youtube 的精選貼文
- 關於4k iops 在 [測試] 10M 4k IOPS挑戰& 3995wx生資效能簡測 的評價
- 關於4k iops 在 價讓許多組織止步,長期陷於因傳 - Facebook 的評價
- 關於4k iops 在 LSI MegaRAID 9260-8i + Intel X25-M G2 SSD x 5測試 的評價
- 關於4k iops 在 NVMe-oF 4K Random Read per Core doesn't reach 1M IOPS 的評價
- 關於4k iops 在 Is virtual SSD IOPS parameter comparable to physical one? 的評價
- 關於4k iops 在 常见硬盘IOPS参考值(转) | Ivanzz 的評價
4k iops 在 ADATA Facebook 的精選貼文
#手機容量再升級
最近隨著手機在解析度的提高, 並且開始支援4K, 以及8K錄影
並且, 越來越多的事情可以在手機完整, 電腦, 平板的檔案也都匯聚於手機
造成手機的容量略顯不夠, 這時應該怎麼辦呢?
小編不藏私, 推薦Premier Pro microSDXC UHS-I U3 A2 V30 記憶卡
連續傳輸效能達每秒10MB以上
隨機讀取效能達4000 IOPS
隨機寫入效能達2000 IOPS
另外, 在1080P, 30FPS的解析度下
512G的容量可以錄製高達3830分鐘相當於整整錄製2.5天不間斷
現在各容量都有優惠歐
尤其是256GB, 現在只要899
還在擔心手機容量不夠嗎?
趕緊點擊以下網址選購吧
PChome 24h購物 : https://24h.pchome.com.tw/prod/DGAG6S-A900A36MT
4k iops 在 科技狗 3C Dog Facebook 的最佳貼文
【SSD 動動手指效能飛天】
🖥 系統預設效能最快!? (X
🐶 看影片調整才最棒!! (O
🍐 農夫耕地瘋賺奇亞幣,讓認真組 NAS 的小老百姓鬧硬碟荒
🧑💻 終於搶到大容量硬碟和 SSD ,結果不會設定根本浪費
數據實測底加>>> https://bit.ly/3wxFmLr
這次簡單幾個觀念:
三大指標 TBW / MTBF / IOPS 越大越好
注意預留空間和快取模式
NAS 作業系統影響很重要
⚡ 親身證實 SSD 有優化跟沒優化速度差了1 倍啊啊
⚡ 數據都在影片裡面自己看囉 用了 Apacer NAS SSD 猛猛的
至於你問我奇亞幣到底好不好賺?一天可以賺多少
伊森自己覺得這個投機泡沫你可以玩玩但不要喪志啊
影片裡面就有跟你說原理跟怎麼賺了
總歸一句:現在硬碟有得買,就快買吧
#Apacer #NAS #SSD #TBW #農夫 #挖礦 #奇亞幣 #比特幣 #科技狗
4k iops 在 Tech Dog Youtube 的精選貼文
#Apacer #PPSS25 #SSD #宇瞻 #挖礦 #礦工
▌建議開啟 4K 畫質 達到高品質觀影享受
◤ 科技狗仔專屬優惠 ◢
✨ PChome ➥ 登錄「3cdog」折價券序號 單件折 NT$500
.Apacer PP3480 PCIe M.2 512GB NAS SSD 👉 https://bit.ly/3fzA9vQ
.Apacer PPSS25 512GB 2.5吋 SATA III NAS SSD 👉 https://bit.ly/3wb6lfs
✨ MOMO ➥ 領取科技狗粉絲獨享券 單件折 NT$500
★ 這邊領券:https://bit.ly/3hyfYkt ★
.Apacer PP3480 PCIe M.2 512GB NAS SSD 👉 【補貨中】
.Apacer PPSS25 512GB 2.5吋 SATA III NAS SSD 👉 https://bit.ly/3wkEWYr
✨ YAHOO ➥ 領取 Apacer 品牌券 單件折 NT$500
★ 這邊領券:https://bit.ly/3ox9dAW ★
.Apacer PP3480 PCIe M.2 512GB NAS SSD 👉 https://bit.ly/3fvfh8F
.Apacer PPSS25 512GB 2.5吋 SATA III NAS SSD 👉 https://bit.ly/3yksh9P
===============================================================
實測文章:https://bit.ly/3wxFmLr
奇亞幣農夫要把全台灣的硬碟買光了啦
除了大容量硬碟 其實 SSD 才是畫地賺錢重點!?
SSD 很快又無聲這種好處你都知道啦
但三大指標怎麼看怎麼挑這就要看片才知道
這一次實測 Apacer NAS SSD
和 QNAP NAS TS-h973AX 結合實測速度
一開始速度很烙賽啊 原來是因為你根本沒有調整優化啦
怎麼讓你的 NAS 裝上 SSD 快到飛天 就看影片吧
===============================================================
::: 章節列表 :::
➥ 選購指標
00:00 致富的秘密
00:36 三大指標
01:48 NAS SSD 特性
➥ 實測效能
02:47 效能表現
➥ 極限燒機
06:01 實際使用
06:54 極限測試
➥ 優化調整
04:10 預留空間
04:50 讀取模式
05:47 作業系統
➥ 趨勢標配
06:38 最後總結
::: Apacer PPSS25 規格 :::
傳輸介面:SATA III
容量 / TBW:
128GB-175TB
256GB-385TB
512GB-820TB
1TB-2065TB
2TB-3750TB
最大容量:2TB
最大 TBW:3,750TB
NAND Flash:3D TLC
MTBF:200 萬小時
連續讀取效能:550MB/s
連續寫入效能:500MB/s
IOPS 隨機寫入:84,000
IOPS 隨機讀取:86,000
不要錯過 👉 http://bit.ly/2lAHWB4
--------------------------------------
#Apacer #PPSS25 #SSD #宇瞻 #挖礦 #礦工
#優缺點 #評價 #PTT #科技狗
📖 Facebook:https://www.facebook.com/3cdog/
📖 Instagram:https://www.instagram.com/3c_dog/
📖 LINE 社群:https://bit.ly/3rzUq8g
📖 官方網站:https://3cdogs.com/
📖 回血賣場:https://shopee.tw/3cdog
▋ 有任何問題都來這邊找我們:3cdogs@gmail.com

4k iops 在 價讓許多組織止步,長期陷於因傳 - Facebook 的推薦與評價
【#延伸比較_FlashStation_全系列機型】 FS6400 疾速效能 4K 隨機寫入240,000 IOPS 雙Intel® Xeon® Silver 8 核心處理器. ... <看更多>
4k iops 在 LSI MegaRAID 9260-8i + Intel X25-M G2 SSD x 5測試 的推薦與評價
【IOPS不夠用?】140000 4K IOPS達成~Raid卡性能參考系列之二:LSI MegaRAID 9260-8i + Intel X25-M G2 SSD x 5測試- 服役接近一年的Intel X25-M G2 ... ... <看更多>
4k iops 在 [測試] 10M 4k IOPS挑戰& 3995wx生資效能簡測 的推薦與評價
TL;DR
AMD Ryzen Threadripper PRO 3995WX在8通道DDR4-3200下
Linux內建的/dev/shm可以達到9M~10M 4k IOPS
而16x Samsung 980 PRO 1TB安裝於此台主機上
未最佳化的RAID 0與系統在高隊列多執行緒下可達到6M 4k IOPS
主要硬體
AMD Ryzen Threadripper PRO 3995WX
8x 64GB Samsung DDR4-3200 ECC RDIMM
ASUS Pro WS WRX80E-SAGE SE WIFI (custom bios version)
7x ASUS HYPER M.2 X16 GEN 4 CARD
16x Samsung 980 PRO 1TB FW:5B2QGXA7 (Slot 1~7各2個+主機板2個)
mdadm RAID0 devices=16 chunk-size=128kB
default xfs
default mount
2x Crucial MX500
mdadm RAID1 裝系統
韌體設定
NPS4
TSME disable
作業系統
Ubuntu 22.04 LTS 5.15.0
其他沒說明的都是預設
說明
原本是準備了30個Samsung 980 PRO 1TB嘗試最大化效能
但後來發現有理論上與工程上的問題
根據AMD的文件 理論上的問題是
Each Processor has the capability to support four P links and four G links.
P links are connected to the PCIe root ports.
G links have the option to be connected to a PCIe root port or as cross
socket links that can be used to communicate cross-socket traffic.
但這張主機板是單插槽 所以G links應該是用於PCIe
There are four bandwidth injection points into the Infinity Fabric of a
single IOD: one per quadrant.
If the board designer chooses to use both G link and P link, then Px and Gx
share the bandwidth injection point in the IOD quadrant x.
When using both Px and Gx as bandwidth injection points, the system achieves
around 20 lanes of effective bandwidth from that quadrant, even though
32 lanes are being used.
根據這段 就算SSD全部直連CPU 最多也只能用到20個
(20 lanes * 4 roots / 4 lanes per ssd)的頻寬
這個事實蠻合理的 因為DDR4-3200 8通道理論頻寬204.8GB/s
而128x PCIe 4.0 理論頻寬為256GB/s
中間還有infinity fabric, IOD, CCD等東西卡著
怎麼算都會網路塞車
When a G link is used to connect to a second PCIe root port, we will have a
configuration in which traffic from two PCIe root ports must be distributed
to a single DMA BW injection point.
In the above configuration, the upstream bandwidth is equally distributed
between P and G links, assuming an equal number of lanes being used in
both P and G links.
根據這段,我應該要安裝各2個在P0, G0, P1, G1, P2, G2, P3, G3
但華碩的工作站主機板說明書都不會提供主機板架構
(這點Supermicro gigabyte asrock rack 都做得比較好
工作站或伺服器級主機板手冊都會提供架構圖
Supermicro的M12SWA-TF就有提供這張圖
反正最後用試的試出來
使用16個SSD 每個插槽各安裝2個 主機板上裝2個
這樣能讓每個PCIe Root Complex底下有4個SSD
工程上的問題是
這張板子的BIOS Version 1003進不了Linux
網路上其他人的留言
https://unix.stackexchange.com/questions/692552/#700549
而就算退版回0701能進Linux 只要安裝超過14個SSD就會有問題
(鄉民: 購買工作站或伺服器 請找品牌廠+SI
有錢就上DELL HPE 沒錢至少也選Supermicro或其他台廠白牌"整機"
[麗台 華碩 技嘉 微星 廣達 緯穎 ...]
自組遇到原廠沒有測過的issue 沒有SI支援很可怕的
我就遇到了 華碩的工程部門 沒有超過10顆的SSD
無法測試同時安裝超過10顆以上的狀況)
理論性能測試
使用fio 3.28 參數比照CrystalDiskMark 8 nvme
fio --loops=5 --size=1g --runtime=10 --time_based=1 \
--stonewall --direct=1 --group_reporting \
--name=SeqQ8T1read --bs=1048576 --iodepth=8 --rw=read \
--name=SeqQ8T1write --bs=1048576 --iodepth=8 --rw=write \
--name=Seq128kQ32T1read --bs=131072 --iodepth=32 --rw=read \
--name=Seq128kQ32T1write --bs=131072 --iodepth=32 --rw=write \
--name=4kQ32T16read --bs=4096 --iodepth=32 --numjobs=16 --rw=randread \
--name=4kQ32T16write --bs=4096 --iodepth=32 --numjobs=16 --rw=randwrite \
--name=4kQ1T1read --bs=4096 --iodepth=1 --rw=randread \
--name=4kQ1T1write --bs=4096 --iodepth=1 --rw=randwrite
在單顆、16顆RAID0、/dev/shm三個環境測試(/dev/shm會將direct=0)
1x 16x raid0 shm
SeqQ8T1read 4110MB/s 13.0GB/s 10.9GB/s
SeqQ8T1write 4166MB/s 12.5GB/s 6735MB/s
Seq128kQ32T1read 1474MB/s 2914MB/s 11.5GB/s
Seq128kQ32T1write 3028MB/s 1629MB/s 8977MB/s
4kQ32T16read 1404MB/s 1527MB/s 35.3GB/s
343k IOPS 373k IOPS 8608k IOPS
4kQ32T16write 2057MB/s 4735MB/s 18.2GB/s
502k IOPS 1156k IOPS 4447k IOPS
4kQ1T1read 101MB/s 99.6MB/s 4950MB/s
24.6k IOPS 24.3k IOPS 1208k IOPS
40.30us 40.78us 568.28ns
4kQ1T1write 325MB/s 310MB/s 3698MB/s
79.3k IOPS 75.7k IOPS 903k IOPS
12.26us 12.85us 825.77ns
*clat avg
看來NVME RAID0沒有什麼提升
可能是負載不夠大
改個參數 加上--ioengine=io_uring
並試著加大壓力試試
--name=Seq128kQ32T64read --bs=131072 --iodepth=32 --numjobs=64 --rw=read
--name=Seq128kQ32T64write --bs=131072 --iodepth=32 --numjobs=64 --rw=write
--name=4kQ1T64read --bs=4096 --iodepth=1 --numjobs=64 --rw=randread
--name=4kQ1T64write --bs=4096 --iodepth=1 --numjobs=64 --rw=randwrite
--name=4kQ32kT64read --bs=4096 --iodepth=32768 --numjobs=64 --rw=randread
--name=4kQ32kT64write --bs=4096 --iodepth=32768 --numjobs=64 --rw=randwrite
16x raid0 shm
Seq128kQ32T64read 44.1GB/s 38.8GB/s
Seq128kQ32T64write 58.9GB/s 20.4GB/s
4kQ1T64read 4841MB/s 37.3GB/s
1182k IOPS 9101k IOPS
4kQ1T64write 4006MB/s 19.8GB/s
978k IOPS 4830k IOPS
4kQ32kT64read 24.2GB/s 28.8GB/s
5908k 7041k
4kQ32kT64write 9111MB/s 19.3GB/s
2224k 4720k
在多執行緒的情況下,NVME RAID0在4kQ32kT64read可以有接近6百萬的IOPS
而這台主機的ramdisk可以在4kQ1T64read下有接近1千萬的IOPS(測試結果會飄)
主機的ramdisk可以到1000萬 表示主機能力有到
980 PRO 1TB 官方宣稱是1百萬IOPS 16顆理論上是1600萬
但測出來只有600萬
可能的原因 能調整的地方我隨便列了一下
PCIe 10-bit tag?
可能需要將device IRQbalance 改為 binding 特定 NUMA node?
同一個root下4個的先組raid0 做numa binding 後再做raid 0+0?
整個raid0的讀取寫入順序可能都要再review
到底要interleave還是sequence
各root complex, 各ssd device
關閉CPU的省電?
關閉OS的CPU硬體緩解?
使用擴展性更好的檔案系統?
ZFS直接使用16顆SSD?
HDFS CephFS直接把這台電腦當一個多節點叢集設定?
看國外的討論是 只要想把多個SSD併成一個單獨的檔案系統
都非常的沒有效率 16個SSD 每個獨立使用比較沒有問題
但問題就變成AP要能夠同時高效使用16個資料夾
要改的東西太多了 還是改天吧
這些東西就交給Storage廠RD去煩惱
這台主機規格開完 採購流程跑完 issue解完 系統設定測試調整完
下一代主機都出了
主機實際應用測試
這裡使用次世代定序分析流程做測試 從fastq到bam
輸入使用ERR194147(NA12878)
這是一個讀長100鹼基 讀深50倍的全基因體定序檔案
同時拿另一台Intel Xeon主機對比
2x Intel Xeon Gold 6342
16x 128GB Samsung DDR4-3200 ECC RDIMM
4x SAMSUNG PM9A3 3.84TB
Intel VROC RAID0 Chunk Size 128K
default ext4
default mount
2x SAMSUNG PM883 480GB
chipset raid1 裝系統
軟體使用開源軟體流程 GATK Best Practices
bwa-mem2 v2.2.1 custom build
AMD 使用 gcc 9.4.0 -flto -march=znver2
Intel 使用 Intel C Compiler 2022.1.0 -ipo -xICELAKE-SERVER -fno-unroll-loops
GATK 4.3.0.0
MarkDuplicatesSpark
BaseRecalibratorSpark
ApplyBQSRSpark
GATK bundle
Homo_sapiens_assembly38.fasta
dbsnp_138.hg38.vcf
Mills_and_1000G_gold_standard.indels.hg38.vcf
Homo_sapiens_assembly38.known_indels.vcf
時間記錄使用nextflow
結果如下表
AMD Intel
bwa 2h 29m 2s 2h 57m 12s
MarkDup 30m 28s 34m 9s
BQSR 13m 33s 20m 21s
ApplyBQSR 25m 21s 29m 52s
total 3h 40m 1s 4h 23m 29s
分析:
由於固定了bwa mem的batch size
在兩個平台上的CPU使用率只到3200%左右
無法線性成長到全核心使用
就算在這種情況下 Gold 6342使用AVX512還是比3995WX慢
而其他的步驟使用Spark平行 得益於核心數量 3995WX 皆稍快一點
心得:
業務們要努力 算算執行時間與花費金錢的CP值 多說服大頭們改用
Amazon AWS Genomics
Microsoft Azure Genomics
GCP Cloud Life Sciences
NVIDIA Clara Parabricks
Illumina DRAGEN
規格開完 招標驗收 機器上線
下一代CPU都出了
還有三星SSD等著出包
實在沒什麼理由不用雲端或商業硬體加速解決方案
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.229.59.159 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1666269084.A.D78.html
家用千萬IOPS文書機
從硬體到OS整條路要打通 再等等吧
Noctua NH-U12S TR4-SP3
之前用過某牌的TR4全覆蓋360AIO
遇到一次水冷液瑕疵 沒幾個月就堵死
空冷的可靠性還是高一點
而且3995wx沒辦法解功耗牆 空冷就夠了
查了一下 Optane DCPMM
Random Read 約6M IOPS
Random Write 約2M IOPS
https://tinyurl.com/y646c2bm
https://lenovopress.lenovo.com/lp1085.pdf
... <看更多>