
О чем этот сайт? Группа в Telegram | Новые Все холивары |
![]() ![]() Выбор разделов
![]() |
![]() |
![]() |
||||||||||||
|
0 комментариев
3 комментария
1 комментарий
2 комментария
5 комментариев
24 комментария
1 комментарий
|
Рейтинг холивара
0
|
![]() |
Создатели сайта: ispace | sasha | sk1e | vosmoi |
Холивар предложений |
Холивар самоуправления |
Новые холиварщики |
0 |
![]() |
![]() |
![]() |
![]() |
![]() |
Jotun, Что в ней прорывного?
Вот 4090ti будет прорывной, вангую. А 1080 и 1080ti хрень собачья.
Kiok, Что прорывного? Первая карта на 11 Гб памяти, например. Первая потребительская карта с числом ядер, сравнимым с профессиональными картами.
Даже скажу так: первая карта потребительской линейки, которую реально активно стали использовать в профессиональной разработке.
Jotun, Слушай, а как вообще в разработке выходить на использование GPU если не майнингом и графикой?
Я пока смотрю - статьи какие-то есть хвалебные для параллелизмов.
А берёшься искать реальные библиотеки, примеры какие-нибудь, итд - какая-то тишина прям.
Jotun, не убедил. вот еслибы 16гб памяти и больше ядер, другое дело
Simple_Not, всмысле?
developer.nvidia.com/cuda-zone
ну и есть вроде опенсорсные либы для разных языков
Kiok, Аргументы на урвоне:
- Почему США лучше Украины?
- Потому что ВВП больше, уровень жизни выше, войны нет.
- Не убедил. Вот если бы ВВП был больше, чем у Китая, а уровень жизни первый на планеты, тогда да.
Simple_Not, Я пока смотрю - статьи какие-то есть хвалебные для параллелизмов.
Майнинг так и использует, на самом деле.
А так, Беркут правильно дал ссылку на CUDA. Это низкоуровневый вариант.
А для всех типов алгоритмов, которые эффективно GPU используют, обычно есть высокоуровневые библиотеки на обычных прикладных языках.
Например, в моем любимом питончике для графовых и матричных вычислений (из которых потом рождаются нейронные сети) - Tensorflow, PyTorch.
Jotun, А как бы, чтобы на любых устройствах с гпу?
Jotun, Ну смотри. Процессор распараллелить и всё такое в развитых языках можно буквально парочкой стандартных идиом.
Почему для GPU ситуация радикально иная?
Jotun,
Пиздец сравнение. Ну если так сравнивать то конечно 1080ти это пиздец пропыв по сравнению с geforce 4 mx440.
Kiok, Это пиздец прорыв по сравнению со всеми картами более низкого поколения.
cherepets, Afaik, никак. Поставщик GPU же определяет интерфейс к вычислениям на нем.
Simple_Not, Потому что ты путаешь параллелизм логики и параллелизм инструкций/данных.
Распараллеливание на GPU - это скорее SIMD-векторизация вычислений, а не создание множества потоков, выполняющих разные методы, как ты обычно делаешь на CPU.
Ключевое отличие - на CPU ты параллелишься на мало мощных ядер, а на GPU - на очень много слабых.
Jotun, Ну это ж дико всрато. Если делаешь что-то для конкретного пользователя с конкретным железом то ладно еще, но если для общего пользования - 3 варианта чтоль пилить?
Jotun, Нихуя, обычная эволюция.
Jotun, Тем не менее по факту я почему-то вообще не могу без костылей задействовать GPU.
Но ведь графика ж работает везде без проблем.
Simple_Not, Но ведь графика ж работает везде без проблем.
Ты так думаешь, потому что пользуешься высокоуровневыми API, не работающими с графикой напрямую
cherepets, Так для общего пользования ты только графику и делаешь.
Любые вычисления - под конкретное железо, разумеется.
Ну, по факту - под Nvidia, потому что всякие там OpenCL и прочие потуги не особо работают.
Jotun, Показали новый радеон с 16гб. Ебать ты лох, ояебу.
Kiok, И чё, лучше там его CUDA работает?
cherepets, Ну вам прям не угодить. Неужели в амд нет аналога? Все равно он лох со своей конченой бомжовской 11гб картой (даже с двумя).
cherepets, Yoba-face.jpg