![]() |
AI ಚಿಪ್ಗಳಿಗಾಗಿ ಜಾಗತಿಕ ಪೂರೈಕೆ ಸರಪಳಿಯನ್ನು ನಿಯಂತ್ರಿಸಲು ಓಟವು ನಡೆಯುತ್ತಿದೆ |
2023 ರಲ್ಲಿ Apple 19bn ಟ್ರಾನ್ಸಿಸ್ಟರ್ಗಳೊಂದಿಗೆ a17 ಬಯೋನಿಕ್ ಚಿಪ್ನಿಂದ ನಡೆಸಲ್ಪಡುವ iPhone 15 Pro ಅನ್ನು ಬಿಡುಗಡೆ ಮಾಡಿತು. ಟ್ರಾನ್ಸಿಸ್ಟರ್ಗಳ ಸಾಂದ್ರತೆಯು 56 ವರ್ಷಗಳಲ್ಲಿ 34 ಪಟ್ಟು ದ್ವಿಗುಣಗೊಂಡಿದೆ. ಆ ಘಾತೀಯ ಪ್ರಗತಿಯನ್ನು ಮೂರ್ ಕಾನೂನು ಎಂದು ಸಡಿಲವಾಗಿ ಉಲ್ಲೇಖಿಸಲಾಗಿದೆ, ಇದು ಕಂಪ್ಯೂಟಿಂಗ್ ಕ್ರಾಂತಿಯ ಎಂಜಿನ್ಗಳಲ್ಲಿ ಒಂದಾಗಿದೆ. ಟ್ರಾನ್ಸಿಸ್ಟರ್ಗಳು ಚಿಕ್ಕದಾಗುತ್ತಿದ್ದಂತೆ ಅವು ಅಗ್ಗವಾದವು (ಚಿಪ್ನಲ್ಲಿ ಹೆಚ್ಚು) ಮತ್ತು ವೇಗವಾಗಿ, ಇಂದಿನ ಎಲ್ಲಾ ಕೈಯಲ್ಲಿ ಹಿಡಿಯುವ ಸೂಪರ್ಕಂಪ್ಯೂಟಿಂಗ್ ಅದ್ಭುತಗಳನ್ನು ಅನುಮತಿಸುತ್ತದೆ. ಆದರೆ AI ಕಾರ್ಯಕ್ರಮಗಳು ಕ್ರಂಚ್ ಮಾಡಬೇಕಾದ ಸಂಖ್ಯೆಗಳ ಸಂಪೂರ್ಣ ಸಂಖ್ಯೆಯು ಮೂರ್ ನಿಯಮವನ್ನು ಅದರ ಮಿತಿಗಳಿಗೆ ವಿಸ್ತರಿಸುತ್ತಿದೆ.
ಪೂರ್ಣ ಚಿತ್ರವನ್ನು ವೀಕ್ಷಿಸಿ
(ದಿ ಎಕನಾಮಿಸ್ಟ್)
ಬಹುತೇಕ ಎಲ್ಲಾ ಆಧುನಿಕ AI ಯಲ್ಲಿ ಕಂಡುಬರುವ ನರಗಳ ಜಾಲಗಳು ತಮ್ಮ ಶತಕೋಟಿ, ಕೆಲವೊಮ್ಮೆ ಟ್ರಿಲಿಯನ್ಗಟ್ಟಲೆ ಆಂತರಿಕ ಸಂಪರ್ಕಗಳನ್ನು ನೀಡಲು ಸರಿಯಾದ "ತೂಕ" ಗಳನ್ನು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಲು ತರಬೇತಿಯ ಅಗತ್ಯವಿದೆ.ಈ ತೂಕವನ್ನು ಮ್ಯಾಟ್ರಿಸಸ್ ರೂಪದಲ್ಲಿ ಸಂಗ್ರಹಿಸಲಾಗುತ್ತದೆ ಮತ್ತು ಮಾದರಿಯು ಕುಶಲತೆಯನ್ನು ಒಳಗೊಂಡಿರುತ್ತದೆ. ಆ ಮ್ಯಾಟ್ರಿಸಸ್, ಗಣಿತವನ್ನು ಬಳಸುತ್ತದೆ.ಎರಡು ಮ್ಯಾಟ್ರಿಕ್ಸ್-ಸಾಲುಗಳು ಮತ್ತು ಕಾಲಮ್ಗಳಲ್ಲಿ ಜೋಡಿಸಲಾದ ಸಂಖ್ಯೆಗಳ ಸೆಟ್-ಮೂರನೇ ಸೆಟ್ ಅನ್ನು ಉತ್ಪಾದಿಸಲು ಬಳಸಲಾಗುತ್ತದೆ; ಆ ಮೂರನೇ ಸೆಟ್ನಲ್ಲಿನ ಪ್ರತಿ ಸಂಖ್ಯೆಯನ್ನು ಮೊದಲ ಸೆಟ್ನಲ್ಲಿರುವ ಎಲ್ಲಾ ಸಂಖ್ಯೆಗಳನ್ನು ಒಟ್ಟಿಗೆ ಗುಣಿಸುವ ಮೂಲಕ ಉತ್ಪಾದಿಸಲಾಗುತ್ತದೆ ಎರಡನೆಯ ಕಾಲಮ್ನಲ್ಲಿ ಮತ್ತು ನಂತರ ಮ್ಯಾಟ್ರಿಕ್ಸ್ಗಳು ದೊಡ್ಡದಾಗಿದ್ದರೆ, ಸಾವಿರಾರು ಅಥವಾ ಹತ್ತಾರು ಸಾಲುಗಳು ಮತ್ತು ಕಾಲಮ್ಗಳನ್ನು ಹೊಂದಿರುವಾಗ ಮತ್ತು ತರಬೇತಿ ಮುಂದುವರೆದಂತೆ ಮತ್ತೆ ಮತ್ತೆ ಗುಣಿಸಬೇಕಾಗುತ್ತದೆ, ವೈಯಕ್ತಿಕ ಸಂಖ್ಯೆಗಳ ಸಂಖ್ಯೆ. ಗುಣಿಸಬೇಕು ಮತ್ತು ಒಟ್ಟಿಗೆ ಸೇರಿಸಬೇಕು.
ನ್ಯೂರಲ್ ನೆಟ್ಗಳ ತರಬೇತಿಯು ಮಿಂಚಿನ ವೇಗದ ಮ್ಯಾಟ್ರಿಕ್ಸ್ ಗುಣಾಕಾರಕ್ಕೆ ಅಗತ್ಯವಿರುವ ಏಕೈಕ ಉದ್ದೇಶವಲ್ಲ. ಕಂಪ್ಯೂಟರ್ ಆಟಗಳನ್ನು ಆಡಲು ಮೋಜು ಮಾಡುವ ಉನ್ನತ-ಗುಣಮಟ್ಟದ ವೀಡಿಯೊ ಚಿತ್ರಗಳ ಉತ್ಪಾದನೆಯು ಹಾಗೆಯೇ ಮಾಡುತ್ತದೆ: ಮತ್ತು 25 ವರ್ಷಗಳ ಹಿಂದೆ ಅದು ತುಂಬಾ ದೊಡ್ಡ ಮಾರುಕಟ್ಟೆಯಾಗಿತ್ತು. ಇದನ್ನು ಪೂರೈಸಲು, ಚಿಪ್ಮೇಕರ್ ಆಗಿರುವ Nvidia, ಹೊಸ ರೀತಿಯ ಚಿಪ್ನ ವಿನ್ಯಾಸವನ್ನು ಪ್ರಾರಂಭಿಸಿತು, ಗ್ರಾಫಿಕ್ಸ್-ಪ್ರೊಸೆಸಿಂಗ್ ಯೂನಿಟ್ (GPU), ಅದರ ಮೇಲೆ ಟ್ರಾನ್ಸಿಸ್ಟರ್ಗಳನ್ನು ಹಾಕಲಾಯಿತು ಮತ್ತು ಏಕಕಾಲದಲ್ಲಿ ಸಾಕಷ್ಟು ಮ್ಯಾಟ್ರಿಕ್ಸ್ ಗುಣಾಕಾರಗಳನ್ನು ಮಾಡಲು ಅನುಮತಿಸುವ ರೀತಿಯಲ್ಲಿ ಸಂಪರ್ಕಿಸಲಾಗಿದೆ. AI ಗೆ ಅನ್ವಯಿಸಿದಾಗ, ಹೆಚ್ಚಿನ ಅಪ್ಲಿಕೇಶನ್ಗಳಿಗೆ ಬಳಸಲಾಗುವ ಕೇಂದ್ರೀಯ ಸಂಸ್ಕರಣಾ ಘಟಕಗಳ (CPUs) ಮೇಲೆ ಇದು ಅವರ ಏಕೈಕ ಪ್ರಯೋಜನವಾಗಿರಲಿಲ್ಲ: ಅವರು ತರಬೇತಿ ಡೇಟಾವನ್ನು ಬಳಸಲು ದೊಡ್ಡ ಬ್ಯಾಚ್ಗಳನ್ನು ಅನುಮತಿಸಿದರು. ಅವರು ಕಡಿಮೆ ಶಕ್ತಿಯನ್ನು ಸಹ ಸೇವಿಸಿದರು.
ತರಬೇತಿ ಅಲೆಕ್ಸ್ನೆಟ್, 2012 ರಲ್ಲಿ "ಆಳವಾದ ಕಲಿಕೆಯ" ಯುಗದಲ್ಲಿ ಪ್ರಾರಂಭವಾದ ಮಾದರಿಯು 60m ಆಂತರಿಕ ಸಂಪರ್ಕಗಳಿಗೆ ತೂಕವನ್ನು ನಿಗದಿಪಡಿಸುತ್ತದೆ. ಅದಕ್ಕೆ 4.7 x 1017 ಫ್ಲೋಟಿಂಗ್-ಪಾಯಿಂಟ್ ಕಾರ್ಯಾಚರಣೆಗಳು (ಫ್ಲಾಪ್) ಅಗತ್ಯವಿದೆ; ಪ್ರತಿ ಫ್ಲಾಪ್ ಎರಡು ಸಂಖ್ಯೆಗಳನ್ನು ಸೇರಿಸಲು ಅಥವಾ ಗುಣಿಸಲು ಸ್ಥೂಲವಾಗಿ ಸಮಾನವಾಗಿರುತ್ತದೆ. ಅಲ್ಲಿಯವರೆಗೆ, 2012 ರಲ್ಲಿಯೂ ಸಹ, ಉತ್ತಮವಾದ CPU ಗಳನ್ನು ಬಳಸುವುದರಿಂದ ಹೆಚ್ಚು ಸಮಯ ಮತ್ತು ಶಕ್ತಿಯ ಅಗತ್ಯವಿರುತ್ತದೆ, ಆದರೆ AlexNet ಅನ್ನು ತರಬೇತಿ ಮಾಡಿದ ವ್ಯವಸ್ಥೆಯು ಅದರ ಎಲ್ಲಾ ಅಸಾಧಾರಣವಾದ FLOPping ಅನ್ನು ಮಾಡಿತು ಕೇವಲ ಎರಡು GPUಗಳು.
ಜಾರ್ಜ್ಟೌನ್ ವಿಶ್ವವಿದ್ಯಾನಿಲಯದ ಉದಯೋನ್ಮುಖ ತಂತ್ರಜ್ಞಾನದ ಕೇಂದ್ರದ ಇತ್ತೀಚಿನ ವರದಿಯ ಪ್ರಕಾರ, ತರಬೇತಿ ಮಾದರಿಗಳಿಗೆ ಬಳಸಿದಾಗ ಜಿಪಿಯುಗಳು 10-100 ಪಟ್ಟು ಹೆಚ್ಚು ವೆಚ್ಚ-ಪರಿಣಾಮಕಾರಿ ಮತ್ತು ಸಿಪಿಯುಗಳಿಗಿಂತ 1,000 ಪಟ್ಟು ವೇಗವಾಗಿ ಉಳಿಯುತ್ತವೆ. ಅವರ ಲಭ್ಯತೆಯೇ ಆಳವಾದ ಕಲಿಕೆಯ ಉತ್ಕರ್ಷವನ್ನು ಸಾಧ್ಯವಾಗಿಸಿತು. ದೊಡ್ಡ ಭಾಷಾ ಮಾದರಿಗಳು (LLMಗಳು), ಆದರೂ, ಲೆಕ್ಕಾಚಾರದ ಬೇಡಿಕೆಯನ್ನು ಇನ್ನಷ್ಟು ಹೆಚ್ಚಿಸಿವೆ.
ಟ್ರಾನ್ಸ್ಫಾರ್ಮರ್ಗಳು ಹೋಗುತ್ತವೆ
2018 ರಲ್ಲಿ, OpenAI ಯ ಸಂಶೋಧಕ ಅಲೆಕ್ ರಾಡ್ಫೋರ್ಡ್, ಹಿಂದಿನ ವರ್ಷ Google ನಲ್ಲಿ ಸಂಶೋಧಕರು ವಿವರಿಸಿದ “ಟ್ರಾನ್ಸ್ಫಾರ್ಮರ್” ವಿಧಾನವನ್ನು ಬಳಸಿಕೊಂಡು ಉತ್ಪಾದಕ ಪೂರ್ವ-ತರಬೇತಿ ಪಡೆದ ಟ್ರಾನ್ಸ್ಫಾರ್ಮರ್ ಅಥವಾ GPT ಅನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಿದರು. ಅವರು ಮತ್ತು ಅವರ ಸಹೋದ್ಯೋಗಿಗಳು ಮುಂದಿನ ಪದವನ್ನು ಊಹಿಸುವ ಮಾದರಿಯ ಸಾಮರ್ಥ್ಯವನ್ನು ಕಂಡುಕೊಂಡರು. ಒಂದು ವಾಕ್ಯವನ್ನು ತರಬೇತಿ ಡೇಟಾ ಅಥವಾ ಕಂಪ್ಯೂಟಿಂಗ್ ಪವರ್ ಅನ್ನು ಸೇರಿಸುವ ಮೂಲಕ ವಿಶ್ವಾಸಾರ್ಹವಾಗಿ ಸುಧಾರಿಸಬಹುದು. ಎತ್ತಿ ಹಿಡಿದಿದ್ದಾರೆ.
ಪರಿಣಾಮವಾಗಿ LLMಗಳು ದೊಡ್ಡದಾಗಿ ಬೆಳೆದಿವೆ. Epoch AI, ಸಂಶೋಧನಾ ಸಜ್ಜು, 2022 ರಲ್ಲಿ GPT-4 ತರಬೇತಿಗೆ 2 x 1025 ಫ್ಲಾಪ್ ಅಗತ್ಯವಿದೆ ಎಂದು ಅಂದಾಜಿಸಿದೆ, ಒಂದು ದಶಕದ ಹಿಂದೆ AlexNet ಗೆ ಬಳಸಿದ್ದಕ್ಕಿಂತ 40m ಪಟ್ಟು ಹೆಚ್ಚು ಮತ್ತು ಸುಮಾರು $100m ವೆಚ್ಚವಾಗಿದೆ. ಜೆಮಿನಿ-ಅಲ್ಟ್ರಾ, ಗೂಗಲ್ನ ಅತ್ಯಂತ ಶಕ್ತಿಶಾಲಿ ಮಾದರಿ, 2024 ರಲ್ಲಿ ಬಿಡುಗಡೆಯಾಯಿತು, ಇದರ ಬೆಲೆ ಎರಡು ಪಟ್ಟು ಹೆಚ್ಚು ಎಂದು ವರದಿಯಾಗಿದೆ; ಇದು 5 x 1025 ಫ್ಲಾಪ್ ಅಗತ್ಯವಿರಬಹುದು ಎಂದು Epoch AI ಲೆಕ್ಕಾಚಾರ ಮಾಡುತ್ತದೆ. ಈ ಮೊತ್ತವು ಗ್ರಹಿಸಲಾಗದಷ್ಟು ದೊಡ್ಡದಾಗಿದೆ, ವೀಕ್ಷಿಸಬಹುದಾದ ಬ್ರಹ್ಮಾಂಡದ ಎಲ್ಲಾ ನಕ್ಷತ್ರಪುಂಜಗಳಲ್ಲಿರುವ ಎಲ್ಲಾ ನಕ್ಷತ್ರಗಳಿಗೆ ಅಥವಾ ಪೆಸಿಫಿಕ್ ಸಾಗರದಲ್ಲಿನ ನೀರಿನ ಹನಿಗಳಿಗೆ ಹೋಲಿಸಬಹುದು.
ಹಿಂದೆ, ಗಣನೆಯ ಅತಿಯಾದ ಅಗತ್ಯಗಳಿಗೆ ಪರಿಹಾರವು ತಾಳ್ಮೆಯ ಮೊಡಕಮ್ ಆಗಿತ್ತು. ಕೆಲವು ವರ್ಷ ಕಾಯಿರಿ ಮತ್ತು ಮೂರ್ನ ಕಾನೂನು ಪ್ರತಿ ಚಿಪ್ನಲ್ಲಿ ಇನ್ನೂ ಹೆಚ್ಚಿನ, ಇನ್ನೂ ವೇಗವಾದ ಟ್ರಾನ್ಸಿಸ್ಟರ್ಗಳನ್ನು ಹಾಕುವ ಮೂಲಕ ಒದಗಿಸುತ್ತದೆ. ಆದರೆ ಮೂರ್ನ ಕಾನೂನಿಗೆ ಕಡಿವಾಣ ಬಿದ್ದಿದೆ. ಪ್ರತ್ಯೇಕ ಟ್ರಾನ್ಸಿಸ್ಟರ್ಗಳು ಈಗ ಕೇವಲ ಹತ್ತಾರು ನ್ಯಾನೊಮೀಟರ್ಗಳ (ಬಿಲಿಯನ್ಗಟ್ಟಲೆ ಮೀಟರ್) ಅಗಲವನ್ನು ಹೊಂದಿದ್ದು, ಕಾರ್ಯಕ್ಷಮತೆಯಲ್ಲಿ ನಿಯಮಿತ ಜಿಗಿತಗಳನ್ನು ಒದಗಿಸುವುದು ಕಷ್ಟ. ಚಿಪ್ಮೇಕರ್ಗಳು ಇನ್ನೂ ಟ್ರಾನ್ಸಿಸ್ಟರ್ಗಳನ್ನು ಚಿಕ್ಕದಾಗಿಸಲು ಕೆಲಸ ಮಾಡುತ್ತಿದ್ದಾರೆ ಮತ್ತು ಚಿಪ್ಗಳ ಮೇಲೆ ಹೆಚ್ಚಿನದನ್ನು ಹಿಂಡಲು ಅವುಗಳನ್ನು ಲಂಬವಾಗಿ ಜೋಡಿಸುತ್ತಿದ್ದಾರೆ. ಆದರೆ ಕಾರ್ಯಕ್ಷಮತೆಯು ಸ್ಥಿರವಾಗಿ ಹೆಚ್ಚುತ್ತಿರುವ ಯುಗವು ಮುಗಿದಿದೆ, ಆದರೆ ವಿದ್ಯುತ್ ಬಳಕೆ ಕಡಿಮೆಯಾಗಿದೆ.
ಮೂರ್ನ ನಿಯಮವು ನಿಧಾನವಾಗಿದೆ ಮತ್ತು ಎಂದಿಗೂ-ದೊಡ್ಡ ಮಾದರಿಗಳನ್ನು ನಿರ್ಮಿಸುವ ಬಯಕೆಯನ್ನು ತೆಗೆದುಕೊಂಡಿದೆ, ಉತ್ತರವು ವೇಗವಾದ ಚಿಪ್ಗಳಲ್ಲ ಆದರೆ ಸರಳವಾಗಿ ಹೆಚ್ಚು ಚಿಪ್ಸ್ ಆಗಿದೆ. ಒಳಗಿನವರು GPT-4 ಅನ್ನು 25,000 Nvidia ನ a100 GPU ಗಳಲ್ಲಿ ತರಬೇತಿ ನೀಡಲಾಗಿದೆ ಎಂದು ಸೂಚಿಸುತ್ತಾರೆ, ಚಿಪ್ಗಳ ನಡುವೆ ಡೇಟಾವನ್ನು ಚಲಿಸುವಾಗ ಸಂಭವಿಸುವ ಸಮಯ ಮತ್ತು ಶಕ್ತಿಯ ನಷ್ಟವನ್ನು ಕಡಿಮೆ ಮಾಡಲು ಒಟ್ಟಿಗೆ ಕ್ಲಸ್ಟರ್ ಮಾಡಲಾಗಿದೆ.
ಆಲ್ಫಾಬೆಟ್, ಅಮೆಜಾನ್, ಮೆಟಾ ಮತ್ತು ಮೈಕ್ರೋಸಾಫ್ಟ್ 2024 ರಲ್ಲಿ ಹೂಡಿಕೆ ಮಾಡಲು ಯೋಜಿಸಿರುವ $200bn ನ ಹೆಚ್ಚಿನ ಮೊತ್ತವು AI-ಸಂಬಂಧಿತ ವಿಷಯಗಳ ಮೇಲೆ ಹೋಗುತ್ತದೆ, ಕಳೆದ ವರ್ಷಕ್ಕಿಂತ 45% ಹೆಚ್ಚಾಗಿದೆ; ಅಂತಹ ಕ್ಲಸ್ಟರ್ಗಳಿಗೆ ಹೆಚ್ಚಿನದನ್ನು ಖರ್ಚು ಮಾಡಲಾಗುವುದು. ಮೈಕ್ರೋಸಾಫ್ಟ್ ಮತ್ತು ಓಪನೈ ವಿಸ್ಕಾನ್ಸಿನ್ನಲ್ಲಿ ಸ್ಟಾರ್ಗೇಟ್ ಎಂಬ $100bn ಕ್ಲಸ್ಟರ್ ಅನ್ನು ಯೋಜಿಸುತ್ತಿವೆ ಎಂದು ವರದಿಯಾಗಿದೆ. ಸಿಲಿಕಾನ್ ವ್ಯಾಲಿಯಲ್ಲಿ ಕೆಲವರು ದಶಕದೊಳಗೆ $1trn ಕ್ಲಸ್ಟರ್ ಬಗ್ಗೆ ಮಾತನಾಡುತ್ತಾರೆ. ಅಂತಹ ಮೂಲಸೌಕರ್ಯಕ್ಕೆ ಹೆಚ್ಚಿನ ಶಕ್ತಿಯ ಅಗತ್ಯವಿದೆ. ಮಾರ್ಚ್ನಲ್ಲಿ ಅಮೆಜಾನ್ ಪರಮಾಣು ವಿದ್ಯುತ್ ಸ್ಥಾವರದ ಪಕ್ಕದಲ್ಲಿ ಡೇಟಾ ಕೇಂದ್ರವನ್ನು ಖರೀದಿಸಿತು, ಅದು ಗಿಗಾವ್ಯಾಟ್ ವಿದ್ಯುತ್ ಅನ್ನು ಪೂರೈಸುತ್ತದೆ.
ಹೂಡಿಕೆಯು ಜಿಪಿಯುಗಳು ಮತ್ತು ಅವುಗಳು ಸೆಳೆಯುವ ಶಕ್ತಿಯ ಮೇಲೆ ಹೋಗುವುದಿಲ್ಲ. ಒಂದು ಮಾದರಿಯನ್ನು ತರಬೇತಿ ಪಡೆದ ನಂತರ, ಅದನ್ನು ಬಳಸಬೇಕಾಗುತ್ತದೆ. AI ಸಿಸ್ಟಮ್ಗೆ ಪ್ರಶ್ನೆಯನ್ನು ಹಾಕಲು ಸಾಮಾನ್ಯವಾಗಿ ಅದನ್ನು ತರಬೇತಿ ಮಾಡಲು ಬಳಸುವ ಕಂಪ್ಯೂಟಿಂಗ್ನ ಮೊತ್ತದ ವರ್ಗಮೂಲದ ಅಗತ್ಯವಿದೆ. ಆದರೆ ಇದು ಇನ್ನೂ ಸಾಕಷ್ಟು ಲೆಕ್ಕಾಚಾರವಾಗಬಹುದು. ತರಬೇತಿ ನೀಡಲು 3 x 1023 ಫ್ಲಾಪ್ ಅಗತ್ಯವಿರುವ GPT-3 ಗಾಗಿ, ಒಂದು ವಿಶಿಷ್ಟವಾದ "ಅನುಮಾನ" 3 x 1011 ಫ್ಲಾಪ್ ಅನ್ನು ತೆಗೆದುಕೊಳ್ಳಬಹುದು. FPGA ಗಳು ಮತ್ತು ASIC ಗಳು ಎಂದು ಕರೆಯಲ್ಪಡುವ ಚಿಪ್ಗಳು, GPU ಗಳನ್ನು ಬಳಸುವುದಕ್ಕಿಂತ AI ಮಾದರಿಗಳನ್ನು ಚಾಲನೆ ಮಾಡುವುದನ್ನು ಹೆಚ್ಚು ಪರಿಣಾಮಕಾರಿಯಾಗಿ ಮಾಡಲು ಸಹಾಯ ಮಾಡುತ್ತದೆ.
ಅದೇನೇ ಇದ್ದರೂ, ಉತ್ಕರ್ಷದಿಂದ ಉತ್ತಮವಾಗಿ ಕಾರ್ಯನಿರ್ವಹಿಸಿದ್ದು ಎನ್ವಿಡಿಯಾ. ಕಂಪನಿಯು ಈಗ $2.8trn ಮೌಲ್ಯದ್ದಾಗಿದೆ, ಇದು 2022 ರಲ್ಲಿ Chatgpt ಅನ್ನು ಪ್ರಾರಂಭಿಸಿದಾಗ ಎಂಟು ಪಟ್ಟು ಹೆಚ್ಚು. ಇದರ ಪ್ರಬಲ ಸ್ಥಾನವು GPU-ತಯಾರಿಕೆಯಲ್ಲಿ ಅದರ ಸಂಗ್ರಹವಾದ ಜ್ಞಾನ ಮತ್ತು ಸಾಕಷ್ಟು ಬಂಡವಾಳವನ್ನು ಒಟ್ಟುಗೂಡಿಸುವ ಸಾಮರ್ಥ್ಯದ ಮೇಲೆ ಮಾತ್ರ ನಿಂತಿಲ್ಲ (ಜೆನ್ಸನ್ ಹುವಾಂಗ್, ಅದರ ಮುಖ್ಯಸ್ಥ , ಬ್ಲ್ಯಾಕ್ವೆಲ್ ಎಂದು ಕರೆಯಲ್ಪಡುವ ಎನ್ವಿಡಿಯಾದ ಇತ್ತೀಚಿನ ಚಿಪ್ಗಳನ್ನು ಅಭಿವೃದ್ಧಿಪಡಿಸಲು $10bn ವೆಚ್ಚವಾಗಿದೆ ಎಂದು ಹೇಳುತ್ತಾರೆ). ಕಂಪನಿಯು ತನ್ನ ಚಿಪ್ಗಳನ್ನು ಪ್ರೋಗ್ರಾಮ್ ಮಾಡಲು ಬಳಸುವ ಸಾಫ್ಟ್ವೇರ್ ಫ್ರೇಮ್ವರ್ಕ್ ಅನ್ನು ಹೊಂದಿರುವುದರಿಂದ CUDA ಎಂದು ಕರೆಯಲ್ಪಡುತ್ತದೆ, ಇದು ಉದ್ಯಮದ ಮಾನದಂಡದಂತೆಯೇ ಇರುತ್ತದೆ. ಮತ್ತು ಚಿಪ್ಸ್ ಅನ್ನು ಒಟ್ಟಿಗೆ ಜೋಡಿಸಲು ಬಳಸುವ ನೆಟ್ವರ್ಕಿಂಗ್ ಉಪಕರಣಗಳಲ್ಲಿ ಇದು ಪ್ರಬಲ ಸ್ಥಾನವನ್ನು ಹೊಂದಿದೆ.
ನನ್ನನ್ನು ಸೂಪರ್ಸೈಜ್ ಮಾಡಿ
ಸ್ಪರ್ಧಿಗಳು ಕೆಲವು ದೌರ್ಬಲ್ಯಗಳನ್ನು ನೋಡುತ್ತಾರೆ ಎಂದು ಹೇಳಿಕೊಳ್ಳುತ್ತಾರೆ. ಮತ್ತೊಂದು ಚಿಪ್ ಸಂಸ್ಥೆಯಾದ ಸಾಂಬಾನೋವಾ ಸಿಸ್ಟಮ್ಸ್ನ ರೋಡ್ರಿಗೋ ಲಿಯಾಂಗ್, ಎನ್ವಿಡಿಯಾದ ಅಂಚೆ ಚೀಟಿ-ಗಾತ್ರದ ಚಿಪ್ಗಳು ಹಲವಾರು ಅನಾನುಕೂಲಗಳನ್ನು ಹೊಂದಿದ್ದು, ಗೇಮಿಂಗ್ನಲ್ಲಿ ಅವುಗಳ ಮೂಲ ಬಳಕೆಗಳನ್ನು ಪತ್ತೆಹಚ್ಚಬಹುದು ಎಂದು ಹೇಳುತ್ತಾರೆ. ನಿರ್ದಿಷ್ಟವಾಗಿ ದೊಡ್ಡದು ಡೇಟಾವನ್ನು ಆನ್ ಮತ್ತು ಆಫ್ ಮಾಡಲು ಅವುಗಳ ಸೀಮಿತ ಸಾಮರ್ಥ್ಯವಾಗಿದೆ (ಇಡೀ ಮಾದರಿಯು ಒಂದು GPU ನಲ್ಲಿ ಹೊಂದಿಕೆಯಾಗುವುದಿಲ್ಲ).
Cerebras, ಮತ್ತೊಂದು ಪ್ರತಿಸ್ಪರ್ಧಿ, 21.5cm ಅಡ್ಡಲಾಗಿ "ವೇಫರ್ ಸ್ಕೇಲ್" ಪ್ರೊಸೆಸರ್ ಅನ್ನು ಮಾರುಕಟ್ಟೆಗೆ ತರುತ್ತದೆ. GPU ಗಳು ಈಗ ಹತ್ತಾರು ಪ್ರತ್ಯೇಕ "ಕೋರ್" ರನ್ನಿಂಗ್ ಲೆಕ್ಕಾಚಾರಗಳನ್ನು ಒಂದೇ ಸಮಯದಲ್ಲಿ ಹೊಂದಿರುವಲ್ಲಿ, ಈ ಬೆಹೆಮೊತ್ ಸುಮಾರು ಮಿಲಿಯನ್ ಅನ್ನು ಹೊಂದಿದೆ. ಕಂಪನಿಯು ಹೇಳಿಕೊಳ್ಳುವ ಅನುಕೂಲಗಳೆಂದರೆ, ಲೆಕ್ಕಾಚಾರಕ್ಕೆ-ಲೆಕ್ಕಾಚಾರಕ್ಕೆ, ಇದು Nvidia ನ ಅತ್ಯುತ್ತಮ ಚಿಪ್ನ ಅರ್ಧದಷ್ಟು ಶಕ್ತಿಯನ್ನು ಮಾತ್ರ ಬಳಸುತ್ತದೆ. Google ತನ್ನದೇ ಆದ ಸುಲಭವಾಗಿ ಕಸ್ಟಮೈಸ್ ಮಾಡಲಾದ "ಟೆನ್ಸರ್-ಪ್ರೊಸೆಸಿಂಗ್ ಯುನಿಟ್" (TPU) ಅನ್ನು ರೂಪಿಸಿದೆ, ಇದನ್ನು ತರಬೇತಿ ಮತ್ತು ತೀರ್ಮಾನ ಎರಡಕ್ಕೂ ಬಳಸಬಹುದು. ಅದರ ಜೆಮಿನಿ 1.5 AI ಮಾದರಿಯು GPT-4 ನಂತೆ ಒಂದು ಸಮಯದಲ್ಲಿ ಎಂಟು ಪಟ್ಟು ಹೆಚ್ಚು ಡೇಟಾವನ್ನು ಒಳಗೊಳ್ಳಲು ಸಾಧ್ಯವಾಗುತ್ತದೆ. ಅದಕ್ಕೆ ಹೇಳಿ ಮಾಡಿಸಿದ ಸಿಲಿಕಾನ್.
ಭೌಗೋಳಿಕ ರಾಜಕೀಯ ಹತೋಟಿಗಾಗಿ ಅತ್ಯಾಧುನಿಕ GPU ಗಳ ಬೃಹತ್ ಮತ್ತು ಬೆಳೆಯುತ್ತಿರುವ ಮೌಲ್ಯವನ್ನು ವಶಪಡಿಸಿಕೊಳ್ಳಲಾಗಿದೆ. ಚಿಪ್ ಉದ್ಯಮವು ಜಾಗತಿಕವಾಗಿದ್ದರೂ, ಸಣ್ಣ ಸಂಖ್ಯೆಯ ಗಮನಾರ್ಹ ಚಾಕ್-ಪಾಯಿಂಟ್ಗಳು ಅದರ AI- ಸಕ್ರಿಯಗೊಳಿಸುವ ಎತ್ತರಗಳಿಗೆ ಪ್ರವೇಶವನ್ನು ನಿಯಂತ್ರಿಸುತ್ತವೆ. ಎನ್ವಿಡಿಯಾದ ಚಿಪ್ಸ್ ಅನ್ನು ಅಮೆರಿಕದಲ್ಲಿ ವಿನ್ಯಾಸಗೊಳಿಸಲಾಗಿದೆ. ಪ್ರಪಂಚದ ಅತ್ಯಂತ ಸುಧಾರಿತ ಲಿಥೋಗ್ರಫಿ ಯಂತ್ರಗಳು, ಎಲೆಕ್ಟ್ರಾನ್ಗಳು ಹರಿಯುವ ಸಿಲಿಕಾನ್ಗೆ ವಿನ್ಯಾಸಗಳನ್ನು ಎಚ್ಚಣೆ ಮಾಡುತ್ತವೆ, ಎಲ್ಲವನ್ನೂ $350bn ಮೌಲ್ಯದ ಡಚ್ ಸಂಸ್ಥೆಯಾದ ASML ನಿಂದ ತಯಾರಿಸಲಾಗುತ್ತದೆ. ತೈವಾನ್ನ TSMC, ಸುಮಾರು $800bn ಮೌಲ್ಯದ ಸಂಸ್ಥೆ ಮತ್ತು ಅಮೆರಿಕದ ಇಂಟೆಲ್ನಂತಹ ಪ್ರಮುಖ ಫೌಂಡರಿಗಳು ಮಾತ್ರ ಈ ಉಪಕರಣಕ್ಕೆ ಪ್ರವೇಶವನ್ನು ಹೊಂದಿವೆ. ಮತ್ತು ಇತರ ಅನೇಕ ಸಣ್ಣ ಸಲಕರಣೆಗಳ ಮಾದರಿಯು ಮುಂದುವರಿಯುತ್ತದೆ, ಜಪಾನ್ ಮಿಶ್ರಣದಲ್ಲಿ ಇತರ ಪ್ರಮುಖ ದೇಶವಾಗಿದೆ.
ಈ ಚಾಕ್-ಪಾಯಿಂಟ್ಗಳು ಚೀನಾಕ್ಕೆ ಸುಧಾರಿತ ಚಿಪ್ಗಳ ರಫ್ತಿನ ಮೇಲೆ ಕಠಿಣ ಮತ್ತು ಪರಿಣಾಮಕಾರಿ ನಿಯಂತ್ರಣಗಳನ್ನು ಜಾರಿಗೆ ತರಲು ಅಮೆರಿಕನ್ ಸರ್ಕಾರಕ್ಕೆ ಸಾಧ್ಯವಾಗಿಸಿದೆ. ಇದರ ಪರಿಣಾಮವಾಗಿ ಚೀನಿಯರು ತಮ್ಮ ಸ್ವಂತ ಚಿಪ್ ಪೂರೈಕೆ ಸರಪಳಿಯನ್ನು ರಚಿಸಲು ನೂರಾರು ಶತಕೋಟಿ ಡಾಲರ್ಗಳನ್ನು ಹೂಡಿಕೆ ಮಾಡುತ್ತಿದ್ದಾರೆ. ಈ ಅನ್ವೇಷಣೆಯಲ್ಲಿ ಚೀನಾ ಇನ್ನೂ ವರ್ಷಗಳ ಹಿಂದೆ ಉಳಿದಿದೆ ಎಂದು ಹೆಚ್ಚಿನ ವಿಶ್ಲೇಷಕರು ನಂಬುತ್ತಾರೆ, ಆದರೆ Huawei ನಂತಹ ಕಂಪನಿಗಳ ದೊಡ್ಡ ಹೂಡಿಕೆಗಳಿಂದಾಗಿ, ಇದು ಅಮೆರಿಕ ನಿರೀಕ್ಷಿಸಿದ್ದಕ್ಕಿಂತ ಉತ್ತಮವಾಗಿ ರಫ್ತು ನಿಯಂತ್ರಣಗಳನ್ನು ನಿಭಾಯಿಸಿದೆ.
ಅಮೆರಿಕ ಕೂಡ ಹೂಡಿಕೆ ಮಾಡುತ್ತಿದೆ. TSMC, ಚೀನಾ ತೈವಾನ್ನ ಮೇಲೆ ಆಕ್ರಮಣ ಮಾಡಲು ನಿರ್ಧರಿಸಿದರೆ ಸಂಭಾವ್ಯ ಬಹುಮಾನ ಅಥವಾ ಅಪಘಾತ ಎಂದು ಪರಿಗಣಿಸಲಾಗಿದೆ, ಸುಮಾರು $6.6bn ಸಬ್ಸಿಡಿಗಳೊಂದಿಗೆ ಅರಿಜೋನಾದಲ್ಲಿ ಫ್ಯಾಬ್ಗಳಿಗೆ ಸುಮಾರು $65bn ಖರ್ಚು ಮಾಡುತ್ತಿದೆ. ಇತರ ದೇಶಗಳು, ಭಾರತದಿಂದ ($10bn) ಜರ್ಮನಿಯಿಂದ ($16bn) ಜಪಾನ್ಗೆ ($26bn) ತಮ್ಮದೇ ಆದ ಹೂಡಿಕೆಯನ್ನು ಹೆಚ್ಚಿಸುತ್ತಿವೆ. AI ಚಿಪ್ಗಳನ್ನು ಸ್ವಾಧೀನಪಡಿಸಿಕೊಳ್ಳುವ ದಿನಗಳು AI ಯ ಅತಿದೊಡ್ಡ ಸೀಮಿತಗೊಳಿಸುವ ಅಂಶಗಳಲ್ಲಿ ಒಂದಾಗಿರಬಹುದು.
© 2024, The Economist Newspaper Ltd. ಎಲ್ಲಾ ಹಕ್ಕುಗಳನ್ನು ಕಾಯ್ದಿರಿಸಲಾಗಿದೆ. ದಿ ಎಕನಾಮಿಸ್ಟ್ನಿಂದ, ಪರವಾನಗಿ ಅಡಿಯಲ್ಲಿ ಪ್ರಕಟಿಸಲಾಗಿದೆ. ಮೂಲ ವಿಷಯವನ್ನು www.economist.com ನಲ್ಲಿ ಕಾಣಬಹುದು