1.6K ผู้เข้าชม

NVIDIA GeForce 11 Series คาดว่าจะเปิดตัวในเดือนกรกฎาคมเผยข้อมูลจาก Hynix ในการผลิต GDDR6

 

กราฟิกการ์ดรุ่นต่อไปของ NVIDIA จะเปิดตัวเป็นในชื่อรุ่น GeForce 11XX ประมาณเดือนกรกฎาคมซึ่งเปิดเผยข้อมูลจากผู้ผลิตและจัดจำหน่ายหน่วยความจำรายหนึ่งได้เปิดเผยว่า จะมีกลุ่มของ GPU รุ่นใหม่จากทีมงานสีเขียวที่ใช้งานสถาปัตยกรรมกราฟิกจาก Turing / Ampere ที่กำลังจะเกิดขึ้นซึ่งสถาปัตยกรรมหนึ่งจะตอบสนองสู่ตลาดเกม PC ในขณะที่อีกส่วนหนึ่งจะเป็นผลิตภัณฑ์ใหม่สำหรับตลาด AI และการคำนวณ โดยในงาน GTC 2018 แม้ว่าจะไม่ได้รับประกาศจาก Nvidia ในการกล่าวถึง GeForce 11 series ที่หลายคนคาดหวังไว้แต่หลายๆ ข้อมูลที่เข้ามาทำให้มีการคาดหวังได้ว่าจะมีการเปิดตัวในเดือนกรกฏาคมนี้

NVIDIA GeForce GTX 1180 & 1170 With 16Gbps GDDR6 Memory In 8GB / 16GB

GDDR6 จะมีการนำมาใช้เพื่อเพิ่มประสิทธิภาพให้ได้มากที่สุดในการ์ดแสดงผลที่จะมาถึงของ NVIDIA ซึ่งรวมถึง GeForce 11 Series ที่กำลังจะมาถึงพร้อม ๆ กับ Tesla และ Quadro สำหรับตลาด AI และผู้ใช้สำหรับการทำงานกราฟฟิก จากการยืนยันของ SK Hynix ได้ยืนยันกับ GamersNexus ว่า GDDR6 กำลังจะเข้าสู่การผลิตภายในเวลาสามเดือนในช่วงปลายเดือนมิถุนายนถึงต้นเดือนกรกฎาคม ทำให้มีการคาดว่า GeForce 11 Series จะเริ่มวางจำหน่ายในช่วงเดือนกรกฎาคมซึ่งตรงกับข้อมูลที่เผยแพร่เมื่อต้นเดือนที่ว่าจะมีการวางจำหน่ายในช่วงเดือนกรกฎาคมเช่นกัน

จากช่วงเวลานี้ดูเหมือนว่าในที่สุดคาดว่าจะมีกรอบเวลาที่ชัดเจนสำหรับกราฟฟิกการ์ดซี่รี่ใหม่แล้ว

หน่วยความจำชนิดใหม่นี้จะไช้พลังงาน 1.35 โวลต์และให้ความเร็วกับ GDDR ถึงสองเท่าจากมารฐานเดิม แต่จะมีต้นทุนในการผลิตเพิ่มขึ้นประมาณ 20% ดังนั้นคาดว่าจะมีการตั้งราคาขายกลางจาก Nvidia (MSRP) ที่สูงขึ้นเล็กน้อยกว่าราคาเปิดตัวของ GeForce 10 Series (Pascal) ของ NVIDIA ซึ่งทาง SK Hynix ยืนยันว่าจะมีชิปหน่วยความจำ GDDR6 ที่มีขนาด 1GB และ 2GB โดยปกติแล้วส่วนของตัวควบคุมหน่วยความจำ GDDR แบบ 32 Bit แต่ละตัวจะจับคู่กับชิป GDDR แบบเดียวซึ่งหมายความว่าจะมีการใช้งานหน่วยความจำขนาด 8GB และ 16GB สำหรับ GPU 256 Bit นั่นอาจมองได้ว่า GTX 1180 และ GTX 1170 ที่จะมีขนาดของหน่วยความจำในระดับนี้ได้

ความจริงที่ว่า SK Hynix จะผลิตจะมีการผลิตหน่วยความจำเป็นไปได้ทั้งทองทางซึ่งเป็นไปได้ที่ว่าจะได้เห็น NVIDIA นำเสนอกราฟฟิกการ์ด GTX 1180 และ GTX 1170 ในขนาด 8GB และ 16GB นอกเหนือจากนี้แล้วสำหรับ GPU จาก NVIDIA ยังจะสามารถเลือกแยกความแตกต่างของกราฟฟิกการ์ดทั้งสองนี้จากขนาดของหน่วยความจำได้

ที่มา : wccftech

Share This:

3.2K ผู้เข้าชม

เทคโนโลยี NVIDIA GPU BOOST 3.0 ให้อะไรกับเราบ้าง? GAMER ได้ประโยชน์ยังไง?

 

 

วันนี้เราจะมาพูดถึงเทคโนโลยีการเพิ่มประสิทธิภาพของ GPU กันบ้างนะครับ ซึ่งเทคโนโลยีในวันนี้ที่เราจะพูดถึงนั้นก็คือ NVIDIA GPU Turbo Boost นั้นเอง

 

ด้วยความที่ว่าเทคโนโลยีด้านประสิทธิภาพของตัวการ์ดจอที่เราๆใช้งานกันอยู่นั้น  จะมีองค์ประกอบของ Cuda Core ที่จะเป็นตัวบ่งบอกความสามารถของ Graphic Processing Unit (GPU) ว่าจะมีประสิทภาพมากน้อยเพียงใด อีกทั้งในตัว GPU เองก็จะมีเรื่องของ Render Output Unit (ROPs) และ Texture Mapping Unit (TMUs) ซึ่งมันจะมีองค์ประกอบส่วนอื่นๆที่จำเป็นต่อความแรงของการ์ดจอตัวนั้นๆด้วย เช่น Memory Bus / Type หาอ่านข้อมุล GPUZ ได้ที QuickPC

 


 

เราจะมาพูดถึงว่าทำไมต้องมี GPU Turbo Boost เกิดขึ้นมา?

 

นั้นก็เพราะว่าในการผลิตการ์ดจอแต่ละยุคแต่ละสมัยนั้น การที่จะได้การ์ดจอที่มีประสิทธิภาพสูงในแบบก้าวกระโดด ในยุคหลังๆจำเป็นต้องเพิ่มสเปคของจำนวน Cuda Core ที่มากขึ้นเรื่อยๆ ในขณะที่เทคโนโลยีการผลิตแบบ Nano Technology ไม่สามารถลดขนาดการผลิตได้ทันต่อความต้องการที่อยากจะเพิ่มประสิทธิภาพการ์ดจอขึ้นมา นั้นทำให้ผู้ผลิตมีความจำเป็นที่จะต้องเพิ่มหน่วยประมวลผล Cuda Core / ROPs / TMUs เพิ่มลงไป ในการที่จะเพิ่มหน่วยประมวลผลเหล่านี้ลงไปมากขึ้น ผลที่ตามมาคือการสูญพลังงาน Watt ที่มากมาย และการปลดปล่อยพลังงานความร้อนที่มีมหาศาลกว่าเดิม

 

NVIDIA จึงได้คิดค้นเทคโนโลยีตัวนี้ออกมาครั้งแรกเมื่อยุคของ Geforce 600 Series ในชื่อสถาปัตยกรรม Kepler รุ่นแรก มีชื่อว่า  GPU Turbo Boost ซึ่ง ณ ตอนนั้นเป็นอะไรที่แปลกใหม่มาก แถมยังช่วยเพิ่มประสิทธิภาพของการ์ดจอสถาปัตยกรรม Kepler ให้สูงขึ้นมาได้อีกขั้นอย่างไม่ยากเย็นนัก ต่อมาก็ได้มีการออกเทคโนโลยี  GPU Boost 2.0 ที่ถูกนำมาใช้กับการ์ดจอ NVIDIA 700 Series อย่างสถาปัตยกรรม Kepler รุ่นที่ 2 (เฉพาะใน GTX 780 780 Ti Titan) และต่อมาก็ถูกนำมาใช้กับการ์ดจอสถาปัตยกรรม Maxwell อย่าง Geforce 900 Series ซึ่งก็ได้มีการปรับเพิ่มความเร็ว MHz  ขึ้นมาอีก และมีการปรับปรุงด้านการใช้พลังงานให้ลดลง ปลดปล่อยพลังงานความร้อนลดลง ทำให้เมื่อนำมาผนวกประยุกต์ใช้กับ GPU Boost 2.0 แล้ว มันยิ่งทำให้มีประสิทธิภาพที่ดียิ่งขึ้นไปอีก เมื่อเทียบกับสถาปัตยกรรม Kepler อย่าง Geforce 700 Series

 

 

การมาของ NVIDIA Turbo Boost 3.0

 

ทำให้เกิดเทคโนโลยีการเพิ่มประสิทธิภาพของ GPU ด้วยการอัด Turbo Clock เข้ามาทดแทนความต้องการด้านประสิทธิภาพที่มากขึ้น

 

ยกตัวอย่างเช่น – GTX 980 ที่เทียบกับ GTX 1060 จะมีสเปคทางกายภาพที่สูงกว่า GTX 1060 ค่อนข้างมาก ตามเส้นที่ขีดเส้นใต้เอาไว้ในโปรแกรม GPUZ  (ข้อ 1.ถึง ข้อ 5.) แต่ทว่าทำไมการ์ดจอ GTX 1060 ถึงมีความแรงในระดับเดียวกับ GTX 980 หรือสูงกว่าในบางเกมได้หละ? นั้นเพราะว่าอย่างแรกเลย ตัว GTX 1060 มีค่า MHz Default Clock (Base Clock) มาสูงกว่า GTX 980 ครับ แต่นั้นก็ไม่ใช่เหตุผลที่มันจะสามารถแรงเทียบเท่ากันได้ซะทีเดียว มันยังต้องใช้ปัจจัยด้าน GPU Clock ที่สูงกว่าที่เห็นในภาพนี้ขึ้นไปอีก ถึงจะสามารถแรงเทียบเท่า GTX 980 ได้ แล้วมันทำอย่างไรหละ?

 

เพราะใน Turbo Boost 3.0 ที่มีใน NVIDIA Geforce 1000 Series ทำให้การ์ดจอที่มีสเปคทางกายภาพน้อยกว่า สามารถทำงานได้เทียบเท่าการ์ดจอที่มีสเปคสูงๆใน Gen ก่อนหน้านี้ได้ แต่ว่าในตาราง Boost Clock ของ GTX 1060 ในข้อที่ 7. นั้น จะเป็นการ Boost Clock ที่เป็นค่า Boost มาตรฐานครับ (Turbo Boost 2.0 =  1709MHz) มันมีเงื่อนไขอยู่ว่า จะสามารถทำ Turbo Boost 3.0 ไปได้อีกขั้นถ้าหากว่า GPU สามารถควบคุมอัตราการใช้พลังงานของการ์ด ณ เวลานั้นแล้วมีค่าอุณหภูมิของการ์ดจอสัมพันธ์กับอัตราพลังงานที่สูญไป โดยทั่วไปแล้วอุณหภูมิที่ต่ำกว่า 60c ลงไปก็ถือว่าอยู่ในเกณฑ์ที่ดี การ์ดจอจะวิ่ง Boost Clock ไปที่ 2000 MHz ซึ่งสูงกว่าค่า Boost Clock ที่กำหนดไว้คือ 1709 MHz ในกรณีที่อุณหภูมิระดับไม่เกิน 80c ก็จะยังคงสถานะของ Boost Clock ไว้ที่ 1709 MHz

 

 

***เห็นไหมครับว่า การ์ดจอที่สเปคต่ำกว่าอย่าง GTX 1060 กลับมาประสิทธิภาพในการเล่นเกมที่เทียบเท่า GTX 980 ซึ่งเป็นรุ่นสูงๆของ Geforce Gen ที่แล้ว***

 

 

ในกรณีที่อุณหภูมิที่เริ่มสูงกว่า 80 องศาเซลเซียส การ์ดจอก็จะเริ่มลดค่า Boost Clock 1709 MHz ลงมา แต่ถ้าหากว่าการ์ดจอสามารถลดอุณหภูมิลงมาได้ต่ำกว่า 80c ก็จะเริ่ม Boost Clock ที่สูงกว่า 1709 MHz อีกครั้ง โดยจะมี Step ละ 20 MHz ที่จะเพิ่มและลดตามสัดส่วนของอุณหภูมิครับ ในขณะที่ GTX 980 จะมีสัดส่วนขยับไป Step ละ 15 MHz แต่ว่าหากดูให้ดีๆจะเห็นว่าอัตราการ Boost Clock ของ GTX 980 แม้ว่าจะสามารถลดอุณหภูมิลงต่ำกว่า 65 องศาเซลเซียส ก็ไม่ได้มีผลที่จะช่วยให้ Boost Clock สูงกว่า 1430 MHz ได้เลย นั้นเพราะยังใช้เพียงเทคโนโลยี GPU Turbo Boost 2.0 อยู่ครับ

 

***แต่ทั้งนี้ทั้งนั้นแล้วสัดส่วนที่บอกไปจะไม่เป๊ะ 100% ครับ มันมีองค์ประกอบด้านพลังงานแรงดันไฟฟ้า และเปอร์เซ็นการทำงาน GPU เข้ามาพ่วงด้วย ซึ่งผมมีตารางแสดงผลแบบคร่าวๆมาให้ชมกันครับ***

 

Temp. GTX 1060 (Pascal) GTX 980 (Maxwell)
60c 2000 MHz 1430 MHz
62c 1980 MHz 1430 MHz
64c 1940 MHz 1430 MHz
66c 1900 MHz 1415 MHz
68c 1840 MHz 1415 MHz
70c 1800 MHz 1400 MHz
72c 1780 MHz 1400 MHz
74c 1760 MHz 1385 MHz
76c 1740 MHz 1370 MHz
78c 1720 MHz 1340 MHz
80c 1709 MHz 1310 MHz
85c 16xx MHz 12xx MHz
90c 1506 MHz 1190 MHz

 

***สถาปัตยกรรม Pascal นั้นพื้นฐานจะถูกพัฒนาต่อมาจากสถาปัตยกรรม Maxwell ที่ได้ทำการลดขนาด Nano ลงมา แต่ก็ไม่ได้มีค่า Instruction Per Cycle (IPC) เพิ่มขึ้นแต่อย่างใด แต่ใช่เทคนิคของการ Boost Clock สูงๆแทนครับ***

 

ดังที่เห็นว่าถ้าการ์ดจอสามารถลดอุณหภูมิได้ดีในขณะที่ใช้พลังการใช้พลังงานที่เหมาะสม แปลว่าการ์ดจอจะได้ค่า GPU Clock ที่ดีตามไปด้วย และ Turbo Boost 3.0 ก็จะแสดงผลของประสิทธิภาพออกมาให้เราได้เห็นกัน แม้ว่า Nvidia จะไม่ได้ออกมาชี้ว่า ตนมีเทคโนโลยีการ Boost ที่เหนือกว่า GPU Boost 2.0 แต่ไม่ได้ออกมาเปิดเผยอย่างเป็นทางการแบบเดิมก็ตามที แต่หลายๆคนก็มักเรียกมันว่า GPU Boost 3.0 อยู่ดี ซึ่งมันจะให้ผลดีมากๆกับการ์ดจอที่มีชุดระบายความร้อนที่ดีๆ และมีภาคจ่ายไฟที่ดีมากพอ ก็จะช่วยส่งผลพลักดันให้ GPU สามารถที่จะ Boost Clock ดีๆได้อย่างต่อเนื่องนั้นเอง

 

 

เห็นไหมครับว่า Technology นี้มีส่วนทำให้เหล่า Gamer สามารถที่จะมีการ์ดจอที่มีประสิทธิภาพสูง การใช้พลังงานและความร้อนก็ลดลง มากกว่าการที่พยายามใส่ Cuda Core เข้าไปเยอะๆ ให้มันร้อนและกินไฟเกินความจำเป็น ทั้งยังทำให้ผู้ผลิตการ์ดจออย่าง สามารถลดต้นทุนการผลิตของการ์ดจอลงได้ ผลก็คือทำให้ผู้ผลิตสามารถจัดจำหน่ายการ์ดจอประสิทธิภาพดีในราคาที่เหมาะสมกับผู้ใช้งานอย่างเราได้ กรณี Geforce GTX 980 กับ Geforce GTX 1060 น่าจะเป็นโมเดลตัวอย่างได้เป็นอย่างดี ฉนั้นจึงบอกได้ว่า NVIDIA GPU TURBO BOOST 3.0 คือการเพิ่มประสิทธิภาพแบบทวีคูณ เพื่อลดเรื่องการสิ้นเปลืองพลังงานของ GPU ที่มากจนเกินไปนั้นเอง

 

อย่างไรก็ตามที่ผมยังหวังไว้ว่า การ์ดจอตระกูล Geforce 2000 Series สถาปัตยกรรม Turing อาจจะมาพร้อมกับ GPU Turbo Boost 4.0 ก็เป็นไปได้ นั้นหมายความว่าเราอาจจะได้เห็นการ์ดจอทำงาน Boost Clock ระดับ 2500MHz + ก็เป็นไปได้ครับ ขอบคุณที่ติดตามครับ แล้วพบกันใหม่ในบทความครั้งต่อไป.

 

Source : NVIDIA

Share This:

8.7K ผู้เข้าชม

Step ความแรงของ NVIDIA Geforce ทั้ง 16 Generation ที่ผ่านมาแต่ละรุ่นเป็นยังไงบ้าง

 

 

NVIDIA – ชื่อนี้คนที่อยู่ในวงการเกม และวงการคอมพิวเตอร์ ไม่มีใครที่ไม่รู้จักหรือน้อยมากๆที่จะไม่รู้จัก แต่ก่อนที่จะมาเป็น NVIDIA ในวันนี้ ถูกก่อตั้งขึ้นมาโดย Mr.Jen Hsun Huang ปัจจุบันดำรงดำแหน่งสูงสุดของบริษัท NVIDIA CEO ที่มากความสามารถ อีกทั้งยังเคยเป็นผู้คิดค้นออกแบบ CPU ให้กับ AMD ในอดีต และ Mr. Chris Malachowsky นักวิศวะกรไฟฟ้าที่เคยทำงานอยู่บริษัท ซันไมโครซิสเต็มส์ และ Mr. Curtis Priem วิศวะกรระดับสูงที่เคยเป็นนักออกแบบกราฟฟิคที่บริษัท ซันไมโครซิสเต็มส์ เช่นกัน ก่อนที่จะขอแยกตัวออกมาทำกราฟฟิคชิป โดยก่อตั้งบริษัทเมื่อปี 1993 (ตอนนั้นผมยังเรียนอยู่ ม.1 อยู่เลยฮับ)

 

ผลิตภัณฑ์ที่เคยผลิตมา

  • GeForce, ผลิตภัณฑ์ประมวลผลทางด้านกราฟิกสำหรับการประมวลกราฟิกเกม (เป็นผลิตภัณฑ์ที่ทำให้อินวิเดียเป็นที่ยอมรับ)
  • Quadro, ผลิตภัณฑ์ประมวลผลสำหรับคอมพิวเตอร์ช่วยออกแบบและเวิร์กสเตชันประมวลผลทางด้านกราฟิก.
  • Tegra, ชิปประมวลผลสำหรับอุปกรณ์มือถือ.
  • Nvidia Tesla, ชิปประมวลผลกราฟิกเฉพาะทางสำหรับการใช้งานประมวลภาพขั้นสูง หรืองานประมวลผลทางด้านวิทยาศาสตร์.
  • nForce, ชิปเซ็ตเมนบอร์ดสำหรับไมโครโปรเซสเซอร์ของ AMD รุ่น Athlon และ

 

– ปี 1994 NVIDIA ได้ร่วมหุ้นกับบริษัท Thomson Microelelectrics ร่วมกันผลิตชิปกราฟฟิคตัวแรกที่ใช้ในการเร่งภาพกราฟฟิคมัลติมีเดียที่จะเอามาใส่ในอุปกรณ์อิเลคทรอนิคมัลติมีเดียในยุคนั้น

 

– ในปีต่อมา 1995 ได้ผลิตโปรเซสเซอร์ตัวแรกชื่อ NV1 ที่สามารถนำมาประยุกต์ใช้กับการประมวลผลภาพ 3มิติเต็มรูปแบบได้ครั้งแรก และ บรอดเกมอาเขตเกมแรกที่ประเดิมชิปโปรเซสเซอร์ตัวนี้คือบรอดอาเขตของค่าย Sega กับเกม Virtual Fighter ภาคแรก (ภายหลังถูกพอร์ทต่อมาลงในเครื่องเกม Sega Saturn)

 

– ปี 1996 เป็นปีที่เริ่มนำโปรเซสเซอร์การประมวลผล NV1 มีใช้กับระบบปฏิบัติการ Microsoft Direct X ที่เพิ่งเริ่มเปิดตัวครั้งนั้นในปี 1996 เช่นกัน ถือเป็น API ตัวแรกของ Microsoft ที่ถูกเอามาใช้กับระบบปฏิบัติการ Windows

 

– ปี 1997 เป็นปีที่ Nvidia ได้ทำการเปิดจำหน่ายโปรเซสเซอร์อย่าง Riva 128 เป็นครั้งแรก และมียอดการสั่งซื้อ OEM รวมกว่า 1 ล้านตัวในช่วงระยะเวลาเพียง 4 เดือนนับทั้งแต่วางจำหน่าย

 

– ปี 1998 พัฒนาโปรเซสเซอร์ Riva 128Z ที่แรงที่สุดในโลก ณ เวลานั้น โดยเลือกผลิตกับโรงงานผลิตชิปชื่อดังในไต้หวันอย่าง TSMC เพื่อจัดจำหน่ายในปีเดียวกัน

 

วันนี้เราจะจะขอหยิบยกเรื่องของกราฟฟิคชิปบนคอมพิวเตอร์ Desktop  มาให้ชมกันเท่านั้นครับ เพราะมันจะยาวเกินไปและไม่ตรงกับความสนใจของเพื่อนๆ ซึ่งจะเริ่มมีบริบทตั้งแต่ปี 1999 เป็นต้นไปครับ ซึ่งจะเสนอเฉพาะในรุ่นระดับ Flag Ship ของ Gen นั้นๆครับ เพื่อให้ง่ายต่อการรับชม ซึ่งเราจะเริมกันที่ตระกูล Geforce ตัวแรกครับ ในส่วนของ Riva Series ก่อนหน้านี้จะไม่ได้ถูกรวมอยู่ Geforce Series


 

Geforce Gen 1st Nvidia Geforce 256 มันถูกเรียกว่าการ์ดจอเป็นครั้งแรก หรือ Graphic Card (GPU) เป็นชิปกราฟฟิค 3D ที่สามารถเรนเดอร์โพลิกอนได้ระดับ 10 ล้านโพลิก้อน+ และสามารถเรนเดอร์วัตถุแสงเงา ฝุ่นควันได้แล้ว สนับสนุนเทคโนโลยี API Direct X 7.0

 

 

Geforce Gen 2nd Nvidia Geforce 2 Utra DDR รุ่นสูงสุดของ Geforce 2 เทียบสมรรถนะกับ Geforce 256 จะมีประสิทธิภาพเพิ่มขึ้น 317% สนับสนุนเทคโนโลยี API Direct X 7.0

 

 

Geforce Gen 3rd Nvidia Geforce 3 Ti 500 รุ่นสูงสุดของ Geforce 3 เทียบสมรรถนะกับ Geforce 2 Ultra DDR จะมีประสิทธิภาพเพิ่มขึ้น 46% สนับสนุนเทคโนโลยี API Direct X 8.1

 

 

Geforce Gen 4th Nvidia Geforce 4 Ti 4800 รุ่นสูงสุดของ Geforce 4 เทียบสมรรถนะกับ Geforce 3 Ti 500 จะมีประสิทธิภาพเพิ่มขึ้น 44% สนับสนุนเทคโนโลยี API Direct X 8.0a

 

 

Geforce Gen 5th Nvidia Geforce FX5950 Ultra รุ่นสูงสุดของ Geforce 5 เทียบสมรรถนะกับ Geforce 4 Ti 4800 จะมีประสิทธิภาพเพิ่มขึ้น 1% สนับสนุนเทคโนโลยี API Direct X 9.0a

 

 

Geforce Gen 6th Nvidia Geforce 6800 Ultra รุ่นสูงสุดของ Geforce 6 เทียบสมรรถนะกับ Geforce FX 5950 Ultra จะมีประสิทธิภาพเพิ่มขึ้น 80% สนับสนุนเทคโนโลยี API Direct X 9.0c การสนับสนุน DX9.0c

 

 

Geforce Gen 7th Nvidia Geforce 7900 GTX รุ่นสูงสุดของ Geforce 7 เทียบสมรรถนะกับ Geforce 6800 Ultra จะมีประสิทธิภาพเพิ่มขึ้น 91% สนับสนุนเทคโนโลยี API Direct X 9.0c

 

 

Geforce Gen 8th Nvidia Geforce 8800 Ultra รุ่นสูงสุดของ Geforce 8 เทียบสมรรถนะกับ Geforce 7900 GTX จะมีประสิทธิภาพเพิ่มขึ้น 132% สนับสนุนเทคโนโลยี API Direct X 10.0

 

 

Geforce Gen 9th Nvidia Geforce 9800 GTX+ รุ่นสูงสุดของ Geforce 9 เทียบสมรรถนะกับ Geforce 8800 Ultra จะมีประสิทธิภาพน้อยกว่า 9% สนับสนุนเทคโนโลยี API Direct X 10.0

 

 

Geforce Gen 10th Nvidia Geforce GTX 285 รุ่นสูงสุดของ Geforce GT200 เทียบสมรรถนะกับ Geforce 9800GTX+ จะมีประสิทธิภาพเพิ่มขึ้น 71% สนับสนุนเทคโนโลยี API Direct X 10.1

 

 

Geforce Gen 11th Nvidia Geforce GTX 480 รุ่นสูงสุดของ Geforce GF400 เทียบสมรรถนะกับ Geforce GTX 285 จะมีประสิทธิภาพเพิ่มขึ้น 42% สนับสนุนเทคโนโลยี API Direct X 11

 

 

Geforce Gen 12th Nvidia Geforce GTX 580 รุ่นสูงสุดของ Geforce GF500 เทียบสมรรถนะกับ Geforce GTX 480 จะมีประสิทธิภาพเพิ่มขึ้น 15% สนับสนุนเทคโนโลยี API Direct X 11

 

 

Geforce Gen 13th Nvidia Geforce GTX 680 รุ่นสูงสุดของ Geforce GK600 เทียบสมรรถนะกับ Geforce GTX 580 จะมีประสิทธิภาพเพิ่มขึ้น 31% สนับสนุนเทคโนโลยี API Direct X 11.1

 

 

Geforce Gen 14th Nvidia Geforce GTX 780 Ti รุ่นสูงสุดของ Geforce GK700 เทียบสมรรถนะกับ Geforce GTX 680 จะมีประสิทธิภาพเพิ่มขึ้น 46% สนับสนุนเทคโนโลยี API Direct X 11.1

 

 

Geforce Gen 15th Nvidia Geforce GTX 980 Ti รุ่นสูงสุดของ Geforce GM900 เทียบสมรรถนะกับ Geforce GTX 780 Ti จะมีประสิทธิภาพเพิ่มขึ้น 26% สนับสนุนเทคโนโลยี API Direct X 12.0

 

 

Geforce Gen 16th Nvidia Geforce GTX 1080 Ti รุ่นสูงสุดของ Geforce GP1000 เทียบสมรรถนะกับ Geforce GTX 980 Ti จะมีประสิทธิภาพเพิ่มขึ้น 43% สนับสนุนเทคโนโลยี API Direct X 12.1

 


 

จบไปกับบทความความแรงของ Geforce ในรุ่นหัวเรือธงของแต่ละ Gen นะครับ ซึ่งผมจะขอหยิบเอาเฉพาะการ์ดที่เป็น Single Chip (ชิปเดี่ยว) เท่ากันมาเทียบ โดยที่มันจะเป็นชิปเดี่ยวที่มีความแรงที่สุดใน Gen นั้นๆ และอีกประเด็นที่ไม่ได้เอามาเทียบก็คือ ผมจะตัดในส่วนของการ์ดจอรุ่นที่เป็น GTX Titan ทุกตัวออกจากการเทียบครับ เพราะถือว่าเป็นการ์ดรุ่นพิเศษ

 

กรณีการ์ดจออย่าง GTX 780 Ti , GTX 980 Ti , GTX 1080 Ti การ์ดจอกลุ่มนี้ก็ทำมาจากชิป GTX Titan ใน Gen นั้นๆอยู่แล้วครับ เพียงแต่มีการลดขนาดของสเปคการ์ดจอลงไปบ้างเพื่อให้สามารถขายในราคาที่ผู้ใช้งานทั่วไปสามารถซื้อได้ง่ายขึ้นครับ บทความที่เราได้เขียนมานี้อาจจะมีการตัดทอนรายละเอียดในส่วนของความเป็นไปความเป็นมาไปบ้าง เพื่อให้เนื้อความที่จะสื่อสารนั้นกระชับยิ่งขึ้น

 

 

 

Share This:

1.7K ผู้เข้าชม

รีวิว-ทดสอบ ASUS Geforce GTX 1080 Ti STRIX ปะทะ GTX 1080 ในแบบ 4K และ 1080p

 

สวัสดีเพื่อนๆชาง GcubeZ ทุกๆท่านที่เข้ามาอ่านการทดสอบการ์ดจอครับ วันนี้เราก็ได้มีโอกาสหยิบยืมเอาการ์ดจอทดสอบมาแบรนด์ ASUS ที่เราหลายๆคนรู้จักกันเป็นอย่างดี ซึ่งคราวนี้จะมาในรุ่นใหญ่ๆเลยอย่าง GTX 1080 Ti Overclock แต่ครั้นจะให้เราทดสอบกันธรรมดาๆเหมือนครั้งก่อนๆมันก็กะไรอยู่ วันนี้ผมเลยจัดทีเด็ดให้เพื่อได้รับชมการทดสอบการใช้งาน ไวถึง 3 รูปแบบด้วยกัน

  • การทดสอบเทียบกับ GTX 1080 Founder
  • การทดสอบในแบบความละเอียดของจอ FHD และ 4K
  • แถมด้วยวิดีโอสาธิตการใช้ การ์ดจอสตรีมภาพด้วยการใช้ความสามารถ NVIDIA GPU Encode

ASUS แบรนด์ที่เรารู้จักกันดีในผู้ผลิตการ์ดจอให้กับฝั่ง NVIDIA AMD ซึ่งมีสินค้าที่เกี่ยวกับ GPU คอมพิวเตอร์ออกมามากมายหลายรุ่น อทิเช่น การ์ดจอ PC / Mini Computer / Mini PC / เมนบอร์ด Intel – AMD / โทรศัพท์มือถือ แท็ปเล็ต / จอมอนิเตอร์ / เกมมิ่งเกียร์  และอุปกรณ์เสริมต่างๆ หาดูรายละเอียดได้ที่นี่ ซึ่งสินค้าที่เราได้มาทดสอบกันในวันนี้เป็นการ์ดจอที่เป็นชิปรุ่นเรือธง (ไม่นับ Titan Xp) ใน Series 1000 ของ Nvidia นั้นก็คือ ASUS Geforce GTX 1080 Ti STRIX OC Edition ที่เป็นรุ่นที่ทำการ Overclock สัญญาณนาฬิกามาจากโรงงานให้แล้วครับ


กล่องบรรจุภัณฑ์ประมาณนี้ ซึ่งดีไซน์การออกแบบใน STRIX จะคล้ายๆหรือเกือบจะเหมือนกันแทบทั้งสิ้น ไม่ว่าจะเป็น GTX 1060 1070 1070 Ti 1080 เป็นต้น แต่วันนี้เราพูดถึง 1080 Ti ครับ ซึ่งมันก็ยังคงมาตรฐานดีไซน์ได้สวยเสมอต้นเสมอปลาย

เมื่อเปิดตัวกล่องออกมาก็จะเจอกับแพ็คเก็จสีดำทะมึน ที่เป็นตัวกล่องและมีฟองน้ำห่อหุ้มตัวการ์ดจอกันกระแทกเอาไว้หนาๆเลย และก็มีพวกสายไฟต่อแปลงไฟการ์ดจอ 8 Pin สองชุดด้วยกัน ตลอดจนมีการแถมสายรัดตีนตุ๊กแกมา 3 เส้น และก็แผ่นไดร์เวอร์กับคู่มือการใช้งานเท่านั้นครับ


ดีไซน์ของตัวการ์ดจอทำออกมาได้สวยงามดีครับตั้งแต่การฉีดพลาสติกทำกรอบฮีตซิ้งค์ สามารถเก็บงานได้ดี งานประกอบจัดได้แนบเนียนและดูดี ซึ่งจะว่าไปแล้วการ์ดที่มีดีไซน์ STRIX แบบนี้จะมีเฉพาะในรุ่น GTX 1070 ขึ้นไปในฝั่ง Nvidia และ AMD ในรุ่น RX 580 ขึ้นไปครับ

ด้านข้างตัวการ์ดจอกินพื้นที่ในส่วนของการติดตั้งการ์ดจออยู่ที่ 2 สล็อตครึ่งด้วยกัน มีสัญลักษณ์โลโก้ Geforce GTX เห็นมาแต่ไกล ส่วนตัวการ์ดจากที่วัดความยาวจาก Plate ยึดการ์ดจอถึงปลายกรอบฮีตซิ้งค์มีความยาว 30 cm พอดิบพอดีครับ เคสประเภท mATX ควรเช็คระยะความยาวที่จะใส่การ์ดจอให้ดีนะครับ

มีช่องต่อไฟ 8 pin PCI-E X 2 = 16 pin ส่วนในการต่อไฟนั้นจะมากกว่ามาตรฐานเล็กน้อยครับ (ปกติจะใช้ 8+6 – 1080Ti FE ) นั้นก็เพราะตัวการ์ดจอมีการ Overclock มาจากโรงงานแล้ว และไฟในส่วนของพัดลมที่เพิ่มเข้ามาด้วยครับ ใครที่คิดจะใช้งงานการ์ดจอตัวนี้ในแบบ 2 ใบ ควรพิจารณา PSU ที่ระดับ 850w ขึ้นไปครับ หรือต่อการ์ดจอใบเดียวก็ควรที่จะใช้ขั้นต่ำที่ 650w ขึ้นไปครับ

มุมมองภาพรวมของตัวการ์ดจอตัวนี้จากด้านหลัง เรียกได้ว่าดีไซน์ตัว Back Plate มาได้สวยงามดุดัน และดูดีเอามากๆ แถมวัสดุที่ใช้ก็เป็นแผ่นอลูมิเนียมหนาสีดำฉลุร้องเป็นเทคเจอร์ และสกรีนลวดลายสวยงามดีมากๆครับ

พัดลมที่ใส่ติดตั้งมาค่อนข้างจะใบพัดไม่ได้หนามากนัก เท่าที่เราจับดูนะครับ (ในจุดนี้อยากให้ทาง ASUS ดีไซน์ใหม่) แต่ส่วนความสวยและรอบใบพัดของพัดลมคือสุดยอดของพัดลมแรงการ์ดจอเวลานี้เลย

สล็อต SLI Connector มีมาตามปกติเลยครับ 1 ชุด ไว้รองรับเทคโนโลยีการ SLI ต่อการ์ดจอมากกว่า 1 ตัว ในการใช้งานคู่กับ GTX 1080 Ti ด้วยกันเอง แอบเห็น Logo Geforce GTX เท่ๆมาด้วย แต่ไม่มีไฟ RGB ในจุดนี้นะครับ

มีช่องต่อไฟ RGB Connector มาให้ด้วย 1 ช่อง เอาไว้สำหรับควบคุมไฟแสดงผลที่ตัวการ์ดจอครับ ถ้าดูดีๆจะเห็นแพลมๆว่า ฮีตไปป์เส้นใหญ่มากๆเลย แต่มันจะใหญ่จริงไหมรอดูกันต่อไปนะครับต่างภาพด้านล่าง

จุดเชื่อมต่อจอด้านหลังการ์ดจอ ให้มาครบมาตรฐาน Display Port 1.3 x 2 ,HDMI 2.0 x 2 ,DVI -i x1


แกะฮีตซิ้งค์การ์ดจอออกมาแล้ว จะเห็นได้ว่ามีการติดตั้งอุปกรณ์ภาคจ่ายไฟให้กับตัวการ์ดจอค่อนข้างจะหนาแน่นอยุ่พอสมควรครับ ซึ่งต้องบอกว่าให้ภาคจ่ายไฟมาเป็นอย่างดีตั้งแต่มอสเฟส VRM เป็นชนิด IRR ที่มีความสามารถในการทดต่อการโหลดพลังงานหนักๆและทนความร้อนสูงๆได้เป็นอย่างดีครับ

การวางจะถูกออกแบบมาสำหรับการติดเม็ดแรม 12 เม็ด (กรณี GTX TITAN Xp – 12GB) แต่เราจะเห็นว่าเม็ดแรมที่ถูกติดตั้งมานั้นจะมีเพียง 11 เม็ดเท่านั้น นั้นก็คือขนาดรวมที่ 11 GB ตกเม็ดละ 1GB ครับ โดยที่แต่ละเม็ดจะมีขนาดของ Bus Width อยู่ที่ 32Bit เมื่อเอามารวมกัน  32×11 = 352 Bit พอดี (GTX TITAN Xp 32×12 = 384 Bit)

เมื่อเราเช็ดซิลิโคนที่ทาเชื่อมกับตัวคอร์ GPU ออกมาจะเห็นว่ามันคือชิปรหัส GP102 ซึ่งเป็นชิปรหัสเดียวกันกับ GTX TITAN X Pascal นั้นเอง เพียงแต่ว่ามันเป็นชิปที่ถูกตัด Cuda Core มา 256 Cuda Core ให้เหลือ 3584 Cuda Core  เพื่อนำมาใช้เป้นการ์ดจอรุ่น GTX 1080 Ti ครับ

แถมบริเวณตัวการ์ด PCB มีการลงอุปกรณ์แผ่นโลหะสีดำเอาไว้ทั้งแผงเลยครับ เผื่อเอาไว้ระบายความร้อนให้กับเม็ดแรม และดึงความร้อนช่วยจาก Mosfet รวมไปถึงทำหน้าที่ด้ามกัน PCB ของการ์ดงอได้อีกด้วย ตรงจุดนี้ขอชื่นชมครับในการใส่ใจต่ออุปกรณ์การ์ดจอรุ่นบนๆแพงๆแบบนี้

ภาพจากอุปกรณ์จ่ายไฟให้กับชิป GTX 1080 TI ครับ ซึ่งจะมียางดูดความร้อนแปะไว้ทุกจุดเพื่อถ่ายเทความร้อนไปยังแผ่นโลหะด้ามการ์ด ทำให้เราไม่ต้องห่วงเรื่องภาคจ่ายไฟของการ์ดจอจะเน่าไวครับสบายใจได้

ส่วนเม็ดแรมที่ติดตั้งมาบนตัว PCB การ์ดจอนั้นเป็นมาตรฐานจากที่เดียวครับ นั้นก็คือ Micron เพราะ Micron เพราะเป็นผู้คิดค้นเทคโนโลยีแรมแบบ GDDR5X เพียงเจ้าเดียว และยังไม่มีการขายสิทธิบัตรการผลิตต่อนี้กับใคร นอกจากผลิตเพื่อส่งให้กับ NVIDIA ในการผลิตการ์ดจอ GTX 1080 GTX 1080 Ti GTX TITAN Xp เท่านั้น


สภาพโดยรวมของตัวการ์ดจอหลังแกะฮีตซิ้งค์ออกมา เราจะเห็น heat spreader ที่เป็นแผงนิเกิ้ลขนาดใหญ่ ทำหน้าที่ถ่ายเทความร้อนของชิปการ์ดจอมายังจุดนี้เพื่อที่จะกระจายความร้อนออกไปยังฮีตซิ้งค์หลักที่อยู่ใต้ฐาน heat spreader นี้

ต่อจากนั้นก็จะเป็นหน้าที่ของฮีตไปป์ที่เป็นนิเกิ้ลทำหน้าที่ Transfer ความร้อนจากฮีตซิ้งค์หลักไปยังฮีตซิ้งค์รองที่อยู่ด้านข้าง เพื่อไม่ให้ความร้อนไปกระจุกอยู่ที่ตรงฮีตวิ้งค์หลักที่เดียว จุดประสงค์คือการเอาไว้ระบายความร้อนไม่ให้มันกระจุกอยู่ที่เดียวนานเกินไป ต้องบอกว่า ASUS ใส่ตรงนี้มาให้เยอะมากๆครับ นิเกิ้ลเป็นโลหะที่มีราคาต้นทุนแพงกว่าทองแดงครับ เพราะมีคุณสมบัติในการดูดซับความร้อนและถ่ายเทไปยังฮีตซิ้งค์ได้ไวกว่าไปป์แบบทองแดงครับผม


GPU ที่ใช้ทดสอบคือ Pascal GP 102

สถาปัตยกรรม Pascal GP 102
จำนวนชุดประมวลผล 11CUs
จำนวนหน่วยประมวลผล 3584 Cuda
บัสสูงสุดที่รองรับ PCI Express 3.0X16
ขนาดหน่วยความจํา 11GB GDDR5X
ความเร็วสัญญาณนาฬิกา 1594 Mhz
ความเร็วหน่วยความจำ 1387 Mhz
แบนวิธ 352 bit
DirectX ที่รองรับ 12.1

ประเภทมีเดีย รองรับ
720P
1080P
4K
4KHEVC
FLUID MOTION X
VP8
VP9
NVIDIA Encode

SYSTEM TEST
CPU Intel Core i5 8600K 4.7GHz CoffeeLake
Mother Board ASUS Z370 TUF Pro Gaming
Graphics Accelerator ASUS Geforce GTX 1080 Ti STRIX OC Edition
Memory G-Skill Trident Z RGB 32GB 4*8 3200 cl 16-18-18-38
SSD DEVA c240e – 240GB SATA3
HDD Seagate Sky Hawk 6TB SATA3
PSU Thaermaltake TOUGHPOWER 850W Gold
OS Microsoft Windows 10 Pro 64 Bit Insider Preview

ซึ่งวันนี้ผมจะใช้ค่าความเร็วในการทดสอบประสิทธิภาพการ์ดจอที่ความเร็วปกติ 1,594 MHz และ OC 1,700 MHz Core และ Boost Max 2010 MHz ส่วนของความเร็ว Memory 1,387 MHz *8  (11,100 MHz Effective Memory) OC Memory ไปที่ 1,550 MHz *8 ( 12,400MHz Effective Memory) ระบบปฏิบัติการที่ใช้ในการทดสอบ Microsoft Windows 10 Pro – 64 Bit

Overclock [email protected] Boost 2010 MHz / Mem [email protected] MHz

GTX 1080 Founder Edition OC ASUS GTX 1080 Ti STRIX OC + OC Plus
GPU Pascal GP 104  Pascal GP 102
Core 2560 3584
TMUs 160 224
ROPs 64 88
Clock [email protected] 1725 MHz Boost 3.0 = 2050 MHz 1594 @ 1700 MHz Boost 3.0 = 2010 MHz
Memory Clock [email protected] 1400 MHz *8 Effective 11200 MHz [email protected] 1550 MHz *8  Effective 12,400 Mhz
Memory 8 GB 11 GB
Memory Bus 256 bit 352 bit
Memory Type GDDR5X GDDR5X

การทดสอบวันนี้จะใช้เพียงแค่ 6 เกมยอดนิยม ที่ใช้สเปคเครื่องคอมได้เยอะ แต่จะไปเน้นเปรียบเทียบด้วยการ ทดสอบคู่กับ GTX 1080 ตัวปกติด้วย เพื่อให้เห็นความแรงที่แตกต่างของ GTX 1080 Ti และทั้งนี้เราได้ทดสอบกับความละเอียดของจอแบบ 4K ด้วยครับ

  • อัตรา GPU Load ในแบบ Overclock จะอยุ่ที่ Clock Base 1700 Mhz / Boost 2010 MHz และ mem 12,400 MHz

GTX 1080 TI VS GTX 1080 ON 6 GAME GAME TEST – FHD / 4K ULTRA PRESET


3DMark Fire Strike

คะแนนพุ่งขึ้นมาเยอะพอสมควรครับมาแตะที่ระดับ 30,944 สำหรับ Fire Strike ได้อย่างไม่ยากเย็น เมื่อดูจากคะแนนทดสอบกับ GTX 1080 ที่ผ่านการ Overclockมาสุดๆด้วยแล้วเราก้เห็นได้ชัดว่า GTX 1080 Ti ตัวนี้ทำผลงานได้ดีมากๆครับ เพราะทิ้งห่างคะแนนทดสอบไปเกือบ 7000 คะแนน


แถมท้ายนิดหน่อยนะครับเกี่ยวกับสาธิตการใช้ CPU / GPU Stream Broadcast Youtube / Facebook ที่เราจะได้ใช้ประโยชน์ของการ์ดจอในการทำ GPU Encode สำหรับงานแปลงไฟล์ หรือการสตรีมภาพขณะเล่นเกมด้วยความสามารถของการ์ดจอ NVIDIA


LIVE วิดีโอ Unbox – แกะฮีตซิ้งค์ให้ชมกันสดๆเป็นไงมาดูครับ

Unbox แกะซิ้งค์ ASUS Geforce GTX 1080 Ti STRIX OC Edition

Unbox แกะซิ้งค์ ASUS Geforce GTX 1080 Ti STRIX OC Editionดูบน Youtube : https://www.youtube.com/watch?v=Pf4vD2MQqwIดูบน Twitch : https://www.twitch.tv/videos/218178310

โพสต์โดย GcubeZ บน 13 มกราคม 2018


Temperature (Overclock Mode) Fan Auto System Power Watt
GPU Idle 38c 82 w
GPU Full Load 70c 371 w

Final Thought / Mike GcubeZ : หลังจากทดสอบสิ่งทีผมรู้สึกได้คือในด้านความแรงมันมีสิ่งนึงที่แตกต่างจาก GTX 1080 Ti ในรุ่นปกติ คือมันทำงานได้นิ่งและเสถียรดีครับ อาจจะเพราะอุปกรณ์ภาคจ่ายไฟที่ให้มาเป็นของดีมากๆ และมีชุดระบายความร้อนที่ดีมากๆครับ ส่วนราคาขายต้องถือว่าแรงเอาการอยู่ ทั้งนี้อยู่ที่เพื่อนๆวิเคราะห์กันเองครับว่า งบประมาณเพียงพอและยินดีจะจ่ายหรือไม่

มันดีกว่า GTX 1080 Ti ทั่วไปอย่างไร ? – ตอบตรงๆคือดีกว่าหลายๆยี่ห้อครับเรื่องเสถียรและใช้งานไฟนิ่ง Fps ก็คงทีไม่ค่อยแกว่ง

ระบบภาคจ่ายไฟ – ภาคจ่ายไฟของการ์ดจอเป็นอีกสิ่งนึงที่ควรพิจารณาอย่างมากสำหรับการ์ดจอระดับเกือบบนสุดตัวนี้ เพราะมันมีการเลือกใช้วัสดุที่ดี VRM Mosfet เป็นแบบ IRR ที่ทนและไม่ตายง่ายๆ (แม้จะเคยสลบ แต่ผมก็ไม่ตาย อิอิ)

ชุดระบายความร้อน – เป็นพระเอกอีกตัวที่ไม่ควรมองข้าม วัสดุเป็นโลหะนิเกิ้ลเกือบทั้งหมดครับ แปลว่าไม่ว่ามันจะร้อนเพียงใด อากาศในห้องที่ร้อนก็ส่งผลบ้างกับอุณหภูมของตัวการ์ดจอ แต่ว่ามันก็มีคุณสมบัติที่ดูดซับและถ่ายเทความร้อนได้ไวมากๆ เป็นสิ่งที่การ์ดจอรุ่นใหญ่ๆหลสยๆยี่ห้อควรมี

สุดท้ายแล้ว – ก็อยู่ในเกฑ์มาตรฐาน GTX 1080 Ti ครับสำหรับการ์ดจอรุ่นนี้ อยู่ในระดับที่สูงกว่า GTX 1080 Ti ในแบบมาตรฐานครับไม่ว่าจะเรื่องอุปกรณ์จ่ายไฟ อุปกรณ์ในการทำฮีตซิ้งค์ หรือแม้แต่ความแรงที่ได้รับก็ด้วยเช่นกัน (ราคาก็แรงด้วย)


จุดเด่น

  • ประสิทธิภาพดี แต่ควบคุมอัตรา fps และค่า ft ได้ดี
  • ระบบระบายความร้อนสามารถทำได้ในเกณฑ์ที่ดีมาก
  • วัสดุตัวการ์ดทั้งหมดดีมากและการออกแบบตัวการ์ดทำได้ดีสวยงามและดูคงทน
  • มีไฟ RGB ทั้งด้านข้าง ด้านหลัง และจากในตัวการ์ด สวยมากๆ
  • ทำ AURA SYNC กับเมนบอร์ดของ ASUS ที่รองรับได้ จะทำให้เล่นลูกเล่นไฟ RGB สวยๆได้ด้วยการสั่งงานผ่านโปรแกรมของ ASUS
  • ใช้ Memory แบบ 11.1Gbs และสามารถ OC ไปได้ถึง 12.4Gbs

จุดที่ควรปรับปรุง

  • ราคาจัดจำหน่ายสูง ควรมีอุปกรณ์บันเดิ้ลแถมให้หรือของสะสม หากไม่มีจุดนี้ควรขายให้ถูกกว่านี้อีกหน่อย
  • ใบพัดลมดูไม่ค่อยแข็งแรงเท่าที่ควร น่าจะออกแบบมาให้ใบหนากว่านี้

ขอขอบคุณ ASUSTEK ประเทศไทย ที่สนับสนุนของทดสอบให้กับเราในวันนี้ครับ

Share This: