Đâu là giới hạn tốc độ của bộ xử lý?

Tốc độ xử lý của máy tính ngày càng tăng đến mức đáng kinh ngạc, và có vẻ như chẳng mấy chốc tốc độ này sẽ tăng đến mức vô cùng – chỉ tiếc rằng khả năng này không thể xảy ra.
Tốc độ xử lý của máy tính ngày càng tăng đến mức đáng kinh ngạc, và có vẻ như chẳng mấy chốc tốc độ này sẽ tăng đến mức vô cùng – chỉ tiếc rằng khả năng này không thể xảy ra.    

 

Hai nhà vật lí đã chứng minh rằng máy tính cũng có giới hạn về tốc độ giống như tốc độ ánh sáng vậy. Nếu tốc độ bộ xử lý tiếp tục tăng đều như trước nay, chúng ta sẽ đạt đến giới hạn này trong vòng chưa đến 100 năm nữa.

40 năm trước, người đồng sáng lập Intel Gordon Moore đã dự đoán rằng các nhà sản xuất có thể tăng gấp đôi tốc độ xử lý của máy tính sau mỗi 2 năm bằng cách đưa thêm Transistor nhỏ hơn lên chip. Dự đoán này được biết đến dưới cái tên Định luật Moore, và đã chứng tỏ sự đúng đắn của nó trong suốt quá trình phát triển của máy tính – bộ xử lý nhanh nhất ngày nay có tốc độ cao hơn bộ xử lý 10 năm trước khoảng 30 lần.  

\"\"Nếu các thành phần của bộ xử lý tiếp tục thu nhỏ, các nhà sản xuất sẽ phải mã hóa các bit thông tin trên các phần tử nhỏ vô cùng. Trong thế giới vi điện tử, nhỏ hơn đồng nghĩa với nhanh hơn, nhưng 2 nhà nghiên cứu vật lí Lev Levitin và Tommaso Toffoli của Khoa Kỹ thuật điện máy tính tại Đại học Boston ở Massachusett đã tìm ra giới hạn tốc độ xử lý của máy tính, cho dù các thành phần của nó có thu nhỏ tới mức nào chăng nữa. 

“Nếu tin vào định luật Moore… thì sẽ mất khoảng 75 đến 80 năm để đạt đến giới hạn này,” Levitin nói. 

“Không một hệ thống nào có thể vượt qua giới hạn này. Nó không phụ thuộc vào bản chất vật lý của hệ thống hay cách áp dụng nó và thuật toán sử dụng… bất kỳ lựa chọn phần cứng phần mềm nào cũng vậy,” Levitin nói. “Giới hạn này là một quy luật tất yếu của tự nhiên, cũng như tốc độ ánh sáng vậy.”

Scott Aaronson thuộc Viện Công nghệ MassachusettsCambridge, thì nghĩ rằng ước lượng 75 năm của Levitin là quá lạc quan.   

Theo ông, định luật Moore sẽ không trụ vững được quá 20 năm nữa.

\"\"Hồi đầu thập niên 80, Levitin đã chọn ra một phép tính cơ bản lượng tử, là nhiệm vụ cơ bản nhất của một máy tính lượng tử phải thực hiện. Mới đây trên một bài báo trên tờ Physical Review Letters, Levitin và Toffoli lại đưa ra một công thức về lượng thời gian tối thiểu để thực hiện phép tính sơ cấp  từ đó tạo ra giới hạn tốc độ cho tất cả các máy tính có thể. 

Và từ phép tính này, Levitin và Toffoli đã kết luận rằng, với mỗi một đơn vị năng lượng, trong một giây, một máy tính lượng tử hoàn hảo sẽ thực hiện được số lượng phép tính nhiều gấp 10 triệu tỉ so với bộ xử lý nhanh nhất hiện nay. 

“Việc đưa ra một giới hạn cơ bản là rất quan trọng – chúng ta có thể tiến xa bao nhiêu với những nguồn lực này,” Levitin giải thích. 

2 nhà khoa học cũng chỉ ra rằng trở ngại về công nghệ có thể sẽ làm chậm định luật Moore khi càng tiến gần đến giới hạn. Khác với máy tính dùng điện, máy tính lượng tử không thể xử lý các tác nhân gây “nhiễu” – một chút thắt ở dây dẫn hoặc sự thay đổi nhiệt độ có thể gây nguy hiểm. Để vượt qua điểm yếu này và biến máy tính lượng tử trở thành sự thật cần thêm thời gian và nghiên cứu. 

Khi các thành phần máy tính ngày càng được gói gọn lại, nhiệt độ của bộ xử lý lại tăng nhanh hơn so với tốc độ. Do đó xu hướng gần đây trong các bộ xử lý 4 nhân và 2 nhân; thay vì tạo ra các bộ xử lý nhanh hơn, các nhà sản xuất lại xếp chúng kế tiếp nhau nhằm giảm nhiệt độ. Nhưng ngay cả khi sử dụng chiến thuật này, vẫn không có cách nào vượt qua giới hạn tốc độ đó.  

Nhưng theo Aaronson, thật tuyệt vời khi giới hạn này tồn tại.   

“Từ góc độ lý thuyết thì việc biết được sự tồn tại của giới hạn này là điều rất tốt,” ông nói. “Có thể bạn sẽ thấy thất vọng bởi chúng ta không thể tạo ra các máy tính nhanh hơn, nhưng sự thực là, nếu có một định lý đúng vĩnh viễn thì chắc chắn định lý đó có vấn đề.” 

 \"\"