DLSS mới là công nghệ đáng được quan tâm nhất trên RTX

Trong sự kiện ra mắt thế hệ nhân xử lý đồ họa (GPU) RTX gần đây, NVIDIA đã giới thiệu hàng loạt các công nghệ tiên tiến sắp được ứng dụng trên các vi xử lý thế hệ Turing như Real-time ray tracing hay AI (trí tuệ nhân tạo). Với cốt lõi là DLSS (Deep Learning Super Sampling) – học sâu siêu lấy mẫu – công nghệ AI hứa hẹn sẽ đem tới sức mạnh xử lý đồ họa không tưởng cho các GPU thế hệ mới.

Như các bạn đã biết, dòng nhân xử lý họa mới của NVIDIA được đặt tên RTX thay vì GTX như trước kia, với kí tự 'R” tượng trưng cho Real-time ray tracing – công nghệ đặc trưng của thế hệ nhân đồ họa này. Chỉ cần xem một video giới thiệu như Project Sol, có lẽ bạn cũng đã phần nào nắm bắt và mường tượng được khả năng xử lý đồ hoạ tuyệt vời mà công nghệ này có thể đem tới. Vậy còn về công nghệ Trí tuệ nhân tạo AI, hay đi sâu hơn là DLSS (Deep Learning Super Sampling) thì sao? Cũng là một thành tố không kém phần quan trọng đem lại sức mạnh khổng lồ cho thế hệ GPU RTX, vậy nhưng công nghệ mới này lại thể hiện sức mạnh của nó một cách tinh tế và kín đáo hơn nhiều. 

DLSS mới là công nghệ đáng được quan tâm nhất trên RTX

Chúng tôi đã có buổi trò chuyện với Andrew Edelsten, Giám đốc Phát triển Công nghệ của NVIDIA, để có thêm những thông tin chi tiết hơn về DLSS, cũng như tầm quan trọng của nó đối với cộng đồng phát triển game.

Hỏi: Xin chào Andrew, đầu tiên hãy bắt đầu với khái niệm ứng dụng AI (Artificial Intelligence/ Trí tuệ nhân tạo) trong phát triển game. Nói tới sử dụng AI trong phát triển game, điều đầu tiên hầu hết mọi người có lẽ sẽ nghĩ tới là một bộ não ảo điều khiển những nhân vật xung quanh cũng như các tình tiết trong game. Đối với trò chơi điện tử nói chung vào thời điểm hiện nay, 'AI” là gì? Các kỹ thuật này thể hiện 'trí tuệ” của mình như thế nào?

Trả lời: Thuật ngữ 'AI” có lẽ đã bị sử dụng quá mức trong phát triển game. Với trường hợp của chúng tôi, 'AI” được đề cập đến như một thuật ngữ khoa học máy tính truyền thống: đào tạo cho máy tự học bằng cách xử lý các ví dụ và phép thử, từ đó sử dụng mô hình toán học để lập bản đồ đầu vào/ ra, chứ không còn đơn giản là làm theo những lệnh đã được lập trình sẵn như trước kia. 

Hỏi: DLSS là gì? Các nhà phát triển nhận được gì với sức mạnh AI mà DLSS mang tới?

Trả lời:  NVIDIA Turing và nền tảng NVIDIA RTX đã giới thiệu những cách thức mới mẻ để kết hợp cả real-time ray tracing và học sâu (AI) vào dựng hình. DLSS chính là kẻ đi đầu của công nghệ hoàn toàn mới này, nó nâng cấp và thúc đẩy khía cạnh AI của RTX, cung cấp một phương thức dựng hình mới cho các nhà phát triển game cũng như game thủ. DLSS sử dụng các nhân Tensor trong GPU Turing để triển khai mạng lưới kết nối sâu (DNN) qua đó mang tới khả năng chơi game độ phân giải cao với FPS tốt và cải thiện chất lượng hình ảnh lên tới mức siêu thực. 

Hỏi: DLSS được đào tạo như thế nào? Tại sao nó lại là một bước tiến lớn trong công nghệ khử răng cưa và siêu phân giải?

Trả lời: Mô hình DLSS được đào tạo bằng cách kết hợp các khung hình kết xuất cuối cùng và bộ đệm trung gian được lấy từ hệ thống hiển thị của trò chơi. Chúng tôi xử lý và chuẩn bị dữ liệu trước tiên, sau đó đưa vào quy trình đào tạo trên cụm siêu máy tính NVIDIA Saturn V DGX. Một trong những yếu tố chính của quá trình xử lý trước là tích lũy các khung hình, đủ để tạo ra 'các khung hình hoàn hảo”.

Trong quá trình đào tạo, hàng nghìn khung hình răng cưa được đưa vào mô hình DLSS, còn đầu ra của nó được đánh giá dựa trên các khung hình 'hoàn hảo” từ trước. Điều này giúp đào tạo mô hình DLSS cách suy ra hình ảnh 64 mẫu/pixel chỉ từ khung hình đầu vào 1 mẫu/pixel. Quả là một kỳ công thực sự! Những thông tin phỏng đoán về hình ảnh mới này được sử dụng để áp dụng chất lượng cực cao và tăng kích thước khung hình tới độ phân giải cao hơn.

Giải thích thêm một chút, DLSS sử dụng bộ mã hóa tự động chuyển đổi để xử lý từng khung hình, một cách tiếp cận rất khác so với các kỹ thuật khử răng cưa khác. 'Bộ mã hóa” của mô hình DLSS trích xuất các thông tin đa chiều từ mỗi khung hình để xác định các cạnh cũng như hình khối, qua đó quyết định những gì nên và không nên được điều chỉnh. Sau đó 'bộ giải mã” chuyển các thông tin đa chiều này quay về hiển thị dưới dạng hình ảnh màu sắc Đỏ, Xanh, Lam mà con người chúng ta quen thuộc. Trong quá trình này, nó cũng đồng thời làm mịn các cạnh và làm sắc nét các khu vực chi tiết mà 'bộ mã hóa” đã đánh dấu là cần điều chỉnh trước đó.

Hỏi: Bạn có thể nói qua về quy trình làm việc của các nhà phát triển với DLSS không?

Trả lời: DLSS là một hiệu ứng hậu kỳ có thể được tích hợp vào bất kỳ engine game hiện đại nào. Nó không yêu cầu bất kỳ sự thay đổi nào về mặt nội dung hay hình thức và sẽ hoạt động tốt trong các tựa game hỗ trợ Khử răng cưa tạm thời – Temporal Anti-Aliasing (TAA).

Hỏi: Một nhà phát triển sẽ phải làm bao nhiêu công việc để tiếp tục đào tạo và cải thiện hiệu suất của DLSS trong một trò chơi?

Trả lời: Đây là lần đầu tiên một mô hình học sâu deep learning được đặt trực tiếp vào một hệ thống dựng hình 3D. Điều này được thực hiện thông qua việc sử dụng số lượng lớn nhân Tensor thế hệ Turing. Tuy vậy, các nhà phát triển không cần phải lo lắng về những khó khăn trong việc đưa mô hình DLSS chạy chỉ trong vài phần nghìn giây. NVIDIA đã có nhiều đội ngũ phát triển các nghiên cứu này, các nhóm Phần cứng & Kiến ​​trúc cũng như Công nghệ cho nhà phát triển đang làm việc để cải thiện cả chất lượng hình ảnh và hiệu suất theo thời gian.

Tại thời điểm này, để sử dụng được hết tiềm năng của DLSS, các nhà phát triển cần cung cấp dữ liệu cho NVIDIA để tiếp tục đào tạo mô hình DLSS. Quá trình này khá đơn giản khi NVIDIA sẽ xử lý những phần công việc nặng nề thông qua cụm siêu máy tính Saturn V của mình.

Hỏi: Người tiêu dùng có thể thấy sự khác biệt mà DLSS tạo ra không?

Trả lời: Tất nhiên rồi! Sự khác biệt về tốc độ khung hình và chất lượng hình ảnh (tùy thuộc vào chế độ được chọn) khá rõ rệt. Ví dụ, trong nhiều trò chơi mà chúng tôi đang làm việc, DLSS cho phép trò chơi chạy thoải mái ở 4K mà không bị giật hay tụt FPS.

Hỏi: Các nhà phát triển có thể đo định sự khác biệt về hiệu năng mà DLSS đem lại như thế nào?

Trả lời: DLSS đem lại khả năng đạt được độ phân giải màn hình cao hơn mà không phải xử lý để dựng hình mỗi điểm ảnh như truyền thống. Công nghệ này cũng khá linh hoạt khi cho phép các nhà phát triển lựa chọn mức hiệu suất và độ phân giải mà họ mong muốn thay vì bị kẹt với những độ phân giải màn hình hiện có. Vì DLSS là hiệu ứng hậu kỳ, các nhà phát triển có thể dễ dàng đo được hiệu quả của nó bằng cách sử dụng công cụ hiện thời. 

Hỏi: Một thuật ngữ thường được sử dụng là 'học sâu/ deep learning”. Sự khác biệt giữa 'AI/ trí tuệ nhân tạo” và 'học sâu” là gì?

Trả lời: Nói chung hai thuật ngữ thường được sử dụng với nghĩa tương đương nhau. Về mặt kỹ thuật, học sâu (trong đó sử dụng nhiều lớp 'sâu” của mạng thần kinh) là một bộ phận của Học máy/ Machine Learning – một phần của Trí tuệ nhân tạo.

Hỏi: Trong tương lai việc ứng dụng AI vào phát triển game sẽ thay đổi như thế nào? Theo thời gian liệu nó có thay đổi quá trình phát triển game?
Trả lời: Theo tôi nghĩ, AI và học sâu sẽ cách mạng hóa mọi khía cạnh của game và phát triển game.

Tôi có thể tưởng tưởng thấy, chỉ một vài năm trong tương lai tới thôi, các trò chơi với tất cả các cải tiến đều dựa trên AI.

– Các hệ thống Text2speech (Chuyển từ văn bản sang giọng nói) cung cấp âm thanh hấp dẫn cho tất cả các nhân vật trong trò chơi.

– Các chat bot sở hữu kiến ​​thức trò chơi rộng lớn bao trùm toàn bộ vũ trụ trò chơi.

– Các con boss hoạt động không theo kịch bản mà thay đổi thích ứng với phong cách chơi của các game thủ.

– Hệ thống phát hiện gian lận, hack, aimbots,… giữ cho các trò chơi công bằng, cạnh tranh và vui vẻ.

– Có thêm các mô hình DNN xử lý hoạt ảnh nhân vật, vật lý và các khía cạnh khác nhau của hệ thống hiển thị.

Về phía nhà phát triển, AI sẽ giải thoát các nhà thiết kế và lập trình khỏi những công đoạn lặp đi lặp lại gian nan khủng khiếp trong phát triển game. Nhờ vậy, các nhóm phát triển sẽ có thêm thời gian để ý tất cả các khía cạnh của trò chơi nhiều hơn, từ đó trau dồi các yếu tố chính trong trò chơi của họ và tìm ra 'yếu tố thú vị” khó nắm bắt khiến trò chơi trở nên tuyệt vời!

Hỏi: Tại sao lại cần công nghệ Turing để mở khóa tiềm năng của AI?

Trả lời: Nền tảng NGX yêu cầu sử dụng các nhân Tensor của Turing để cung cấp một bộ 'tính năng” dựa trên AI. Trước khi Turing ra đời, việc thực hiện học sâu và các mô hình AI quá phức tạp để các phần cứng đại trà mà người dùng cuối thường sở hữu có thể làm được. NVIDIA có kế hoạch tận dụng nền tảng mới tuyệt vời này để mang lại nhiều tính năng thú vị hơn cho game thủ và người dùng ở mọi nơi. 

BẠN SẼ QUAN TÂM

Card đồ họa mới của NVIDIA mạnh hơn 50%, tốn ít điện hơn

Card đồ họa mới của NVIDIA mạnh hơn 50%, tốn ít điện hơn

Tin tức ICT 5-01-2020, 11:10

CEO Jensen Huang của Nvidia cũng từng xác nhận nhận phần lớn đơn hàng GPU 7nm của họ sẽ được TSMC sản xuất, trong khi một phần nhỏ sẽ được chuyển sang cho Samsung sản xuất. Trong khi đó giám đốc tài chính của Nvidia, Colette Kress nói rằng muốn tạo.
Xem thêm : Card đồ họa mới của NVIDIA mạnh hơn 50%, tốn ít điện hơn

Nvidia Ampere: Thế hệ GPU 7nm mới, Samsung sản xuất, dự kiến ra mắt nửa đầu năm 2020

Nvidia Ampere: Thế hệ GPU 7nm mới, Samsung sản xuất, dự kiến ra mắt nửa đầu năm 2020

Tin tức ICT 8-10-2019, 00:30

Họ cho biết Nvidia sẽ chọn Samsung làm đối tác sản xuất chip xử lý đồ họa dựa trên tiến trình 7nm EUV, và sẽ có hiệu năng tăng đáng kể so với thế hệ card đồ họa RTX với tên mã Turing hiện tại..
Xem thêm : Nvidia Ampere: Thế hệ GPU 7nm mới, Samsung sản xuất, dự kiến ra mắt nửa đầu năm 2020

Bionic A13 đưa hiệu năng xử lý của iPhone lên một tầm cao mới

Bionic A13 đưa hiệu năng xử lý của iPhone lên một tầm cao mới

Công nghệ / Điện thoại 11-09-2019, 03:10

Trên Bionic A13, Apple nhấn mạnh về công nghệ máy học - Machine Learning (ML). Hiện tại đây cũng là giải pháp đang được nhiều hãng làm vi xử lý khai thác để tăng cường hiệu năng, chẳng hạn như Nvidia đã sử dụng công nghệ ML cho tính năng khử răng.
Xem thêm : Bionic A13 đưa hiệu năng xử lý của iPhone lên một tầm cao mới

Sony ra mắt Alpha A6400 với nhiều công nghệ mới đáng quan tâm

Sony ra mắt Alpha A6400 với nhiều công nghệ mới đáng quan tâm

Công nghệ / Máy ảnh số 18-03-2019, 18:50

Sony a6400 được tính hợp cảm biến Exmor APS-C 24.2 megapixel hoàn toàn mới kết hợp với bộ xử lý hình ảnh BIONZ X thế hệ kế. Nó có thể chụp liên tục với tốc độ 11fps với màn trập cơ và 8fps khi bật chế độ im lặng (Bạn có thể chụp lên tục 116 JPG chất.
Xem thêm : Sony ra mắt Alpha A6400 với nhiều công nghệ mới đáng quan tâm

Đánh giá hiệu năng ASUS ROG SCAR II 2019: Có xứng đáng với những game thủ FPS mong đợi?

Đánh giá hiệu năng ASUS ROG SCAR II 2019: Có xứng đáng với những game thủ FPS mong đợi?

Đánh giá laptop 4-03-2019, 13:30

Tại sao lại nói ASUS ROG SCAR II 2019 lại dẫn đầu kỷ nguyên gaming mới, đơn giản bởi vì chiếc laptop này được trang bị cho mình công nghệ card rời RTX tiên tiến nhất có hỗ trợ công nghệ Real-time Ray Tracing và DLSS giúp tăng chất lượng hiển thị khi.
Xem thêm : Đánh giá hiệu năng ASUS ROG SCAR II 2019: Có xứng đáng với những game thủ FPS mong đợi?

Thử nghiệm Nvidia DLSS trong FFXV: FPS tăng vượt bậc ở 4K

Thử nghiệm Nvidia DLSS trong FFXV: FPS tăng vượt bậc ở 4K

Thế giới Games 26-10-2018, 10:43

Trong cuộc trò chuyện với Takeshi Aramaki - Giám đốc kỹ thuật và Trưởng nhóm lập trình của tựa game Final Fantasy XV tại Square Enix, ông nói những công nghệ trên dòng card đồ họa RTX sẽ thay đổi hoàn toàn cách những nhà lập trình viên phát triển.
Xem thêm : Thử nghiệm Nvidia DLSS trong FFXV: FPS tăng vượt bậc ở 4K

MSI giới thiệu loạt sản phẩm card đồ họa sử dụng GPU GeForce® RTX 20 series

MSI giới thiệu loạt sản phẩm card đồ họa sử dụng GPU GeForce® RTX 20 series

Công nghệ / Thiết bị số 21-08-2018, 11:35

GPU GeForce® RTX 20 series là sản phẩm mới nhất của NVIDIA cho giới game thủ, sử dụng kiến trúc NVIDIA Turing™ và NVIDIA đã đổi tên loạt sản phẩm thành NVIDIA RTX thay vì NVIDIA GTX để nhấn mạnh vào khả năng Ray Tracing – Khả năng mô tả ánh sáng của.
Xem thêm : MSI giới thiệu loạt sản phẩm card đồ họa sử dụng GPU GeForce® RTX 20 series

Nvidia ra mắt CPU Parker 1.5 teraflops dành cho hệ thống deep learning trên xe tự lái

Nvidia ra mắt CPU Parker 1.5 teraflops dành cho hệ thống deep learning trên xe tự lái

Công nghệ 24-08-2016, 18:16

Còn nhớ tại triển lãm CES hồi đầu năm, Nvidia đã giới thiệu nền tảng PX2, trang bị 2 bộ vi xử lý Parker và 2 GPU kiến trúc Pascal nhằm hỗ trợ các ứng dụng deep learning, hướng tới cuối cùng là trang bị cho xe tự lái. Bây giờ họ chính thức cho ra mắt.
Xem thêm : Nvidia ra mắt CPU Parker 1.5 teraflops dành cho hệ thống deep learning trên xe tự lái

ĐỪNG BỎ LỠ