nVidia GeForce или ATi (AMD) Radeon

nVidia GeForce
89
Нейтральная
сторона
4
ATi (AMD) Radeon
48
Зеленые ?
Прежде чем писать комментарии или выбрать сторону вы должны авторизироваться!
Красные ?

18-04-2009 12:57 0

сейчас они обе на спаде
играл на всех, nVidia лучше со стороны геймера а Ati(AMD) лучше для прогорамм

1 комментарий
BLooD_RaVeN 18-04-2010 10:56 +1

join, Для каких программ?

18-04-2009 12:58 0

[:|||:]

http://holywars.ru/comments/78

0 комментариев
02-06-2009 22:23 0

Много новинок

0 комментариев
18-04-2010 00:32 0

был ярым фанатом ATI. До тех пор пока она не скатились в говно. Ничего сверх нового не придумали. А когда мне потребовалось 3d ускорение во freebsd вообще жопой повернулись.

0 комментариев
18-04-2010 10:56 +1

nVidia всегда делала лучшие продукты в мире, делает и будет делать! дискасс.

1 комментарий
iBot 18-04-2010 13:55 0

BLooD_RaVeN, 480-лучший продукт?

18-04-2010 16:46 0

ати всегда проигрывала нВидии в играх как не крути, я бы даже сказал что видюхи от ати предназначены для маздаевского офиса и каких то вычеслительных программ, а не для игор. Не научилась команда ати делать видюхи для игор. Или они делают основной упор на СТРАТЕГИИ, так как в СТРАТЕГИЯХ почему то ати лидирует. Но я думаю это не на долго

21 комментарий
iBot 18-04-2010 16:48 0

ZioN, Учи матчасть и не гони пургу

ZioN 18-04-2010 16:51 0

ZioN, Я говорю исходя из тестов

iBot 18-04-2010 16:59 0

ZioN, да? а нука приведи мне тесты с участием HD 5970, и покажи ты видеокарту, которая сможет ее сделать

ZioN 18-04-2010 18:26 0

iBot, Я уверен что эта видюха не долго будет занимать передовой рубеж. Подождем чучуть. И вспомни сколько лет лидировала нВидия

iBot 18-04-2010 20:14 0

ZioN, Да ваш нВидиа низачто не уложиться в тепловыделение 300 ватт, так как одночиповая видюха в напряге 325 Ватт берет... это что, в двухчипе будет 4 восмиштырьковых контакта? а охлаждать ее будет азот? Короче, пока нВидиа отточит 40нанометрию, у АТИ выйдет 6000 серия (помниться они ее к концу года обещали)

ZioN 18-04-2010 20:17 0

iBot, Всё равно, как вариант, у нВидии есть шпионы в ати и в итоге своруют технологию и сделают лучше

iBot 18-04-2010 20:25 0

ZioN, Ха, технологию? у АТИ нет особеных технологий, просто они не стали выпендриваться с новой архитектурой, а тупо нарастили кристалл. Да и нВидеа последнее время ничего лучше не сделали, уже по сотому разу используют свой чип g95, постоянно переименновывая его и продавая как новый продукт. В конце концов у них навык то и ушел...

iBot 18-04-2010 20:25 0

ZioN, Да и за кражу технологий никто по головке не погладит

ZioN 18-04-2010 20:57 0

iBot, Зато руки у нВидии ростут от туда от куда надо. И умеют нормально делать дрова и софт для видюх. Факт остается фактом, для геймеров всех времен и народов является видеокарты нВидия! А ати это куски металического дерьма с кучей недоработок

iBot 18-04-2010 21:44 0

ZioN, Бля, столько оскарблений, 0 фактов и дохуя пафоса... Ты хоть мои комы читал?

На счет дров: дрова у АТИ нормальные, просто они не платят девелоперам что бы они под них игры оптимизировали

iBot 18-04-2010 21:46 0

ZioN, Ан нет, забыл, сейчас как раз у АТИ появились деньги разрабам платить: Дерт 2 и "чужок против хишьника" символизирует

andoriyu 18-04-2010 23:17 0

iBot, на самом деле дрова у АТИ были плохие одно время, после поглощения AMD, стали писать нормальные

iBot 18-04-2010 23:20 0

andoriyu, Может быть, я с тестами и продукцией Ати до поглащения ее AMD плохо знаком. Тогда у меня интернета не было...

andoriyu 18-04-2010 23:29 0

iBot, ыыы, ты сишон. пошелка я подальше с это ресурса.

Ати до поглащения ее AMD плохо знаком. Тогда у меня интернета не было...

Тогда у меня интернета не было...



ппц. это же кем надо быть....

<<<

iBot 18-04-2010 23:39 0

andoriyu, поведай что такое сишон? а то я чувствую себя ущербно когда "всякие" применяют незнакомый сленг

andoriyu 19-04-2010 00:05 0

iBot, смишен* тебе не надо в школу?

iBot 19-04-2010 00:12 0

andoriyu, помоему это ты смешон. я не собираюсь продолжать с тобой разговор, т.к. твою умственное развитие остановилось на промежутке между яслями и детским садом, а интернет окончательно разложил мозг, превратив серое вещество в серую жижицу.

PS:первый раз я рад что у нас из России эмигрировали люди... побольше бы таких туда уезжало, с "жижицей"

andoriyu 19-04-2010 00:18 0

iBot, я может бы не ясно выразился, но пошел ка ты нахуй.

т.к. твою умственное развитие остановилось на промежутке между яслями и детским садом,

достаточно вбить мое имя(Andrew Cherkashin) в гугл и ты будешь приятно удивлен на сколько я ахунен. Зайти на мой сайт studik.org.ru, что понять на сколько ты ничтожен, найти на мой профиль на гитхабе и понять, что даже не хуй, ты вообще падаль.

iBot 19-04-2010 08:28 0

andoriyu, Мальчик, у тебя ЧСВ зашкаливает за стопицот. Я не удивлюсь если ты в жизни такой же мудак как и интернете. Ах нет, не мудак, ты andoriyu (похуже будет оскорбление). Да, и еще: ты писькомер. И можешь сколько угодно задрачивать на свое громкое имя (проверять не буду, так как я человек занятой), но мозги в обратное состояние у тебя не вернуться.

Так что сочувствую и соболезную.

andoriyu 19-04-2010 08:47 0

iBot, пиздец, даже луркоеб из тебя хреновый. интересное, человек без мозга написал бы свой вики двиг и был бы кампусным провайдером... хмм... наверное - нет... так, что быстро и решительно свалил делать уроки, а то мама с папой тебе не купит новую видео карту.

Gutts 31-05-2010 15:40 0

andoriyu, фубля

18-04-2010 23:48 +1

У ATI нет PhisX.

Аргументы на этом кончаются

25 комментариев
iBot 18-04-2010 23:55 +1

FrostMaster, Прискорбно что только этим все достоинства и кончаются...

andoriyu 19-04-2010 00:18 0

FrostMaster, Frost92 детектед.

FrostMaster 19-04-2010 00:40 0

andoriyu, _

дату регистрации посмотри

FrostMaster 19-04-2010 00:41 0

iBot, Для меня это весомый аргумент

andoriyu 19-04-2010 04:59 0

FrostMaster, у меня тоже есть пара акков со времен открытия этого ресурса :D

iBot 19-04-2010 08:28 0

andoriyu, Хм, да ты еще и параноик

andoriyu 19-04-2010 08:49 0

iBot, в том, что ты идиот я не сомневался. причем тут паранойя? у меня эти акки не от того, что мне нужны были мульты, просто я долго не могу решить какой из openid заюзать и заюзал их все :D

iBot 19-04-2010 15:25 0

andoriyu, Да помоему даже слепому видно что стиль написания в корне отличается от стиля фроста. А у тебя параноя. И не спорь, это лишь подтвердит диагноз.

PS: Иди подрочи и успокойся, а то таких нервных в интернете держать нельзя.

andoriyu 19-04-2010 22:08 0

iBot, Просто я давно не видел фроста, а тут вдруг всплыл FrostMaster вот и подумал. стиль поменять можно запросто. Не он так не он, мне плевать.

p.s.

вижу у тебя богатый опыт...

iBot 19-04-2010 22:58 0

andoriyu, Да, опыт богатый: ты не первый кого я послал подрочить.

Такому человеку как frostу поменять стиль очень тяжело

andoriyu 19-04-2010 23:26 0

iBot, это я упустил, подумал может у него левал ап. кроме того я вообще по одному сообщению судил.

iBot 19-04-2010 23:50 0

andoriyu, левл ап? хм, помоему он еще слишком молод для него

andoriyu 20-04-2010 00:24 0

iBot, всякое бывает...путин же у нас остался на 3 срок - чудеса бывают

iBot 20-04-2010 00:38 0

andoriyu, Ну что путин и на 4 срок пойдет я не сомневаюсь.

PS: ты говорил что живешь в америке, а теперь" у нас". НЕстыковачка...

andoriyu 20-04-2010 01:38 0

iBot, ну до тех пор у меня нет ПМЖ в США Россия все еще для меня "у нас".

FrostMaster 21-04-2010 19:37 +1

andoriyu, Сука, обещал свалить отсюда, а опять появился. Уходи, и так уже слил всем подряд, только идиотом себя выставляешь.

andoriyu 22-04-2010 07:15 0

FrostMaster, смотря на твою реакцию не охото сваливать даже :D я уйду наверное после тог окак солью всех в топе и займу первое место :D

FrostMaster 22-04-2010 07:53 +1

andoriyu, Ну ты и задрот. А яростно доказывал, что правая рука у тебя ничем не занята.

andoriyu 22-04-2010 08:19 0

FrostMaster, хмм а я не использую мышку чтобы минусовать :D

FrostMaster 22-04-2010 18:36 0

andoriyu, то, что ты минусуешь уже показывает твой интеллект, мой маленький друг

andoriyu 23-04-2010 00:53 0

FrostMaster, эмм, даже не знаю как повежливее тебя послать куда по дальше... может ты не вкурсе, но рейтинг это средство саморегуляции сообщества (но не меняет того факта, что он не нужен), и ставить минусы и плюсы очень важно в таком типе сообщества.

FrostMaster 23-04-2010 06:26 0

andoriyu, Хуле оправдываешься?

andoriyu 23-04-2010 06:51 0

FrostMaster, О_о в каком месте я оправдываюсь.

FrostMaster 23-04-2010 06:53 0

andoriyu, "эмм, даже не знаю как повежливее тебя послать куда по дальше... может ты не вкурсе, но рейтинг это средство саморегуляции сообщества (но не меняет того факта, что он не нужен), и ставить минусы и плюсы очень важно в таком типе сообщества."

Energ1zer 08-01-2011 01:34 0

FrostMaster, по сабжу: у ATI есть Havok, но это просто в отместку Нвидии так сделали, PhysX проверен временем)

19-04-2010 18:51 0

GeForce рулит!!!!!!!!!!!=))))))))

1 комментарий
iBot 19-04-2010 21:16 0

cs_man, Ахуеный довод, и к бабкам не ходи...

19-04-2010 23:44 0

nVidia GeForce она полностью себя оправдала 3года без сучка и задоринки!!!

0 комментариев
23-04-2010 01:57 0

А я вот просто не люблю ATI.

5 комментариев
not_ephiop 23-12-2010 16:16 0

not_ephiop, Ты просто любишь nVidia, дес~

Gopnik 23-12-2010 16:18 0

not_ephiop, Ты просто говоришь с самим собой.

not_ephiop 23-12-2010 16:24 0

Gopnik, Вот только сама с собой, привыкай уже.

Gopnik 23-12-2010 16:26 0

not_ephiop, Ни за что, я все ещё помню, что мы воевали с Остазией.

Energ1zer 08-01-2011 01:35 0

not_ephiop, а я просто AMD не люблю

30-05-2010 13:27 +1

с лровами под линь легче

0 комментариев
22-12-2010 22:24 0

Я довольно долго занимался разработкой 3D-приложений и понял, что ATI часто игнорирует стандарты. У nVidia с этим всё строго. Т.е. из-за ATI мне приходилось урезать графические возможности моих приложений или делать специальные "заплатки" под ATI.

Высокая производительность ATI в тестах абсолютно ни о чём не говорит. Тесты синтетические. Они не учитывают реальной динамики картинки на экране и качество отображаемых эффектов.

17 комментариев
iBot 22-12-2010 22:36 0

ZI_DAN, Интересно послушать какие же стандарты игнорируют видюхи от амд?(ати уже официально не существует)

ZI_DAN 23-12-2010 11:59 0

ZI_DAN, Есть стандарты языков программирования для видеокарт. Видеокарты Radeon поддерживают их только частично. Из-за этого картинка на них выглядит не так, как задумывал разработчик (например, исчезают текстуры). В последних сериях AMD пытается устранить этот недостаток, но до полной поддержки стандартов им ещё далеко.

P.S. ATI не существует, но AMD ставит эту надпись даже на самых новых видеокартах.

iBot 23-12-2010 15:01 0

ZI_DAN, фубля дибил ты. коль не веришь - любой другой оверклокерский портал открой и посмотри

iBot 23-12-2010 15:02 0

ZI_DAN, ммм, стандарты? дай ссыль в википедию на счет не поддержки стандартов.

ZI_DAN 23-12-2010 15:44 0

ZI_DAN, Оверклокерский портал - это хоро но есть официальный сайт AMD.

ZI_DAN 23-12-2010 15:55 0

ZI_DAN, дай ссыль в википедию на счет не поддержки стандартов.

В Википедии не обо всём пишут. Могу показать скриншоты одной из проблем, с которой я сталкивался.

iBot 23-12-2010 15:57 0

ZI_DAN, А еще хорошо бы почитать ссылку. А там ясно написанно что бренда ati не будет начиная с шеститысячной серии видюх, маркировка предыдущих видеоадаптеров не меняется, ОК? А то не красиво выходит: спорить-споришь, а читать не умеешь

и есть официальный сайтофициальный сайт на английском

iBot 23-12-2010 15:59 0

ZI_DAN, одна проблема- не показатель. например драва от нвидео видяхи жгет

not_ephiop 23-12-2010 16:03 0

iBot, драва от нвидео видяхи жгет

Может проблема в том, что сами видеокарты от Нвидиа сильно нагреваются из-за своей архитектуры?

iBot 23-12-2010 16:06 0

not_ephiop, нет. как то вышла одна версия драйверов, которая а игре стар крафт останавливала кулер(помоему, точно не помню) и видюха полыхала как свеча

iBot 23-12-2010 16:11 0

not_ephiop, но и вообще нвидеа стала более горячей. пару серий назад она вела себя поспокойнее

not_ephiop 23-12-2010 16:15 0

iBot, Пару серий назад была линейка 8ххх. Что-что а её "холодной" назвать нельзя(несколькими 8800 можно избу отапливать).

iBot 23-12-2010 16:26 0

not_ephiop, 6000-7000 в виду

not_ephiop 23-12-2010 16:30 0

iBot, Насколько я помню в то время вне среды оверклокеров словосочетание "перегрев видеокарты" было чем-то из области народного фольклора.

iBot 23-12-2010 16:42 0

not_ephiop, мб и да

ZI_DAN 23-12-2010 19:06 0

iBot, А еще хорошо бы почитать ссылку

Да, не дочитал. Извиняюсь. Но шеститысячная серия только появилась. Поэтому "уже не существует" ещё рано говорить.

P.S. Вообще, не важно AMD или ATI. В этой теме в любом случае понятно о чём речь.

ZI_DAN 23-12-2010 19:13 0

ZI_DAN, одна проблема - не показатель

Это не единственная проблема. Просто к этой у меня скриншот был. Ещё при разработке мы заметили проблемы с антиалиасингом. Также ATI (AMD) поддерживала текстуры только строго определённого разрешения (128x128, 256x256, 512x512 и т.д). Это, конечно, было несколько серий назад. Возможно, в последних сериях исправили.

23-12-2010 16:12 0

Несомненно

0 комментариев
25-12-2010 09:22 0

nVidia доставляет меньше проблем. К тому же большинство игр и программ с видео-запросами тестируют и затачивают под них.

Видиокарты от nVidia можно компбинировать не волнуясь о совместимости.

0 комментариев
08-01-2011 01:27 0

Херня полная эти радеоны. Всю жизнь драйвера глючные да и греются как кипятильник.

3 комментария
iBot 08-01-2011 02:12 0

Pr00f, про греются ты загнул. Сравнил бы тепловыделение жирафов и радиков, а потом бы говорил. На счет дров: 8 лет и ни одной проблемы

painsym 16-02-2012 14:27 0

iBot, оверклокинг онли нвидиа...и с дровами у ати всегда проблемки были

iBot 09-03-2012 23:09 0

painsym, дададад, честно, глюки дров видел только на жирафах. могу с 10 примеров привести

26-02-2011 21:11 0

Незнай но nVidia по мему ху*ня потому-что у меня GeForce 9500 GT
А на ней и игры то не идут( Вот такая тормазнутая)

5 комментариев
uncleFLOPS 26-02-2011 21:18 +1

Z1xTech, Гиг памяти, 550 частота гп, 800 частота видеопамяти, 128 разрядность. Игры не идут? Щутишь, да?
И вообще, тебе к синим.

MAD19 28-02-2011 21:48 0

uncleFLOPS, Ты что, измеряешь мощь видяхи по тому, сколько у неё памяти?
Вообще именно эта видяха слабая. Ещё заметил, что она не прорисовывает некоторые шейдеры в играх

uncleFLOPS 28-02-2011 21:58 0

MAD19, Лол, у меня видеокарта и то хуже, а новые игры на средних настройках тянет.
Нет, ну если он с этой картой на 21" экране пытался в кразис 2 на максимуме поиграть, то он редкостный кретин.

iBot 28-02-2011 23:48 +1

MAD19, как бы кроме памяти он написал и частотную форму, разрядность шины. Тебе еще сколько текстурников написать? или особенности архитектуры? или тех процесс?

painsym 16-02-2012 14:25 0

Z1xTech, 9500 это УГ урезанное,у меня была 9600 на старом пк до сих пор стоит,игры летают(1гб),жаль dx 11 не тянет,а в остальном шик

28-02-2011 12:55 0

Nvidia лучше!И..зеленый цвет по душе:)

2 комментария
noxer012 28-02-2011 22:01 0

Rockstar, Я вижу что здесь большинство голосует за nVidia, потому что сравнить не с чем. И приводить нелепые аргументы в пользу nVidia, когда Ati даже не пробовал, тупо.

painsym 16-02-2012 14:29 0

noxer012, самоя яркое сравнение это будет sli vs crossfire ..
в режиме слай кроссфаир в сторонке плачет производительность +146% на новых видяхах

16-02-2012 13:48 0

Ати не плохая контора,по старше nvidia ,НО все нововведения исходят с nvidia,самая мощная выдяха quadro fx5000 опять же от нвидии. технологии cuda,кристалы fermi все это nvidia первыми сделала,ати же в свою очередь собирает 40% ширпотреп,как техник говорю об этом,мне кучу компов приносили на ремонт,и везде умирает ати..nvidia долговечны,производительность нвидии просто немыслима,НО ати дешевле,прилично...опять же у ати с дровами вечно проблема,оверклокеры жалуются

0 комментариев
16-02-2012 14:29 0

У nVidia каробки изящней. И поддержек побольше.

0 комментариев
28-02-2012 18:50 0

У радеона нет 3d vision cuda physx вот и все это огрызок

0 комментариев
28-02-2012 19:02 0

Делают дрова для никсов, endorsed.
Правда дороже, но качественно

0 комментариев
09-01-2014 01:44 0

Вся суть AMD в одном скриншоте:

4 комментария
BaeFAQs 09-01-2014 03:08 0

cherepets, Будь добр, объясни - не понял соль.

cherepets 09-01-2014 03:12 0

BaeFAQs, Соник как демонстрация крутости видях. Если бы там было написано Crysis 3, то вопросов бы не было. Да даже средней современной игре не было бы вопросов, но... Соник???

BaeFAQs 09-01-2014 03:15 0

cherepets, Я думаю, что это кривая калька с игры слов англоязычного сайта. Но если рассматривать соника как игру, то да - глупость. В общем обосрались дважды.

cherepets 09-01-2014 03:20 0

BaeFAQs, И правда, в оригинале было «If it can give Sonic a Boost». То есть речь не о том, что оно потянет Соника, а о том что оно быстрее даже, чем Соник.

Кстати, в ре сторе еще есть неуклюжая реклама, где написано что iMac крут для игр и нарисована картинка с Asphalt на iMac.

25-07-2014 17:06 0

Дороже, но тише.

0 комментариев
18-04-2009 03:04 0

уточняйте модель

1 комментарий
analog 18-04-2009 03:06 +1

sk1e, а чегож ее уточнять, если спор идет чисто "какая фирма круче" ?
хотя я покупаю то, что выгодно на момент покупке по соотношению ценакачество, а так же тип охлаждения.
И не смотрю на бренд.

22-04-2009 12:16 +1

У меня два дня назад сгорел GeForce на нотбуке. С тех пор я не люблю Nvidia.

4 комментария
andoriyu 18-04-2010 09:17 +2

Theageoflove, я однажды уронил пирожок с мясом на пол, с тех пор я люблю пироги с картошкой.

ZioN 18-04-2010 18:39 0

Theageoflove, А у моих друзей которые первые сови компы упаковали ати, постоянно били арты, бсоды и фигово ставали драйвера. Вот к примеру последний драйвер каталис (или как они там называются) бъёт черный экран в игре ГТА Сан Андреас. А на нВидии всё тип-топ

iBot 18-04-2010 21:58 0

ZioN, "Нехрен на вешь пинять, коль руки кривые"(С)

andoriyu 20-04-2010 01:23 0

ZioN, у меня больше всего бсодов было и косяков(бывало текстуры не подгружались) когда я радеон поменял на нвидию :D пока не переустановил систему ничего не работало нормально

30-04-2009 20:39 0

40 наномертия жЖет! 58XX серия рулит!

0 комментариев
04-06-2009 14:42 0

самая быстрая, самая стабильная! а в играх скорость нужна, да и гигантские разрешения лучше поддерживает

1 комментарий
andoriyu 18-04-2010 09:10 0

save2x2, нативное то разрешение все равно маленькое

21-01-2010 19:40 0

Согласен с save2x2, Стабильна, Больше подходит для большого разрешения (что мне как раз очень полезно)

1 комментарий
andoriyu 18-04-2010 09:10 0

goshmannn, ну и нахуя повторять его аргумент?

21-01-2010 21:34 0

powered by AMD | fueled by ATi | controlled by Ubuntu 9.10

*так что не обсуждается)))

3 комментария
Lelik 21-01-2010 22:12 0

Palyanich, расскажите, как поставили дрова на карту АТИ на убунту?, а то у моих знакомых это редко венчалось успехом

Palyanich 22-01-2010 12:52 0

Lelik, ставил по умолчанию, через Hardware Drivers. Настраивал вот так...

карточка 3850.

а что конкретно не получается?!

Pawo 23-04-2010 01:47 0

Palyanich, А у меня всё поставилось. И 3d работает

18-04-2010 00:07 0

5970 этим все сказано

0 комментариев
18-04-2010 16:19 0

Раньше nVidia была лучше, но сейчас она в разы дороже, учитывая, что последние карты от ATI значительно превосходят аналоги, а платить за бренд глупо. Ах да, ещё nVidia- проприетарщина )

0 комментариев
19-04-2010 21:45 0

незнаю как можно говорить, что нвидиа хороша, когда она жестоко обосралась в последнее время. Дрова кривые и криво сертифицированы из-за чегол в релизах на висте-глисте и 7-ке синие экраны. С 480 ГТХ полная лажа - глобально обосралась нвидиа. Выпустить конкурента красным через полгода после красных да ещё и с процентом выхода годных кристаллов менее 50, прои этом кастрировать обещанное, чтобы не сдохла их "поделка" это надо быть тру инженерами. Затем добила и убила трабла с перегревом видюх, оказывается у них программеры очень криворукие. А вот с АТИ у меня не было трабл никогда. Поэтмоу и за них. И пусть вылечат руки те, у кого дрова ати не работали как надо, вся трабал в руках, а не в дровах. В дровах бывают траблы редко, но метко, как у нвидии.

2 комментария
iBot 19-04-2010 21:50 0

StrangerFull, Можно были и менее похабное написать

ZI_DAN 23-12-2010 12:19 0

StrangerFull, А у меня с nVidia проблем не было никогда: ни в Windows XP, ни в Windows 7, ни в Ubuntu.

30-05-2010 12:13 0

Я не против нвидии, но последние их видюхи очень разочаровывают, из достоинств нвидии:

1.3d vision

2.Самая производительная одночиповая карта

3.Шизикс и куда не в счет, так как бесполезны по большому счету

недостатки:

1.Адские температуры(и это еще без разгона)

2.Огромная цена

3.Плохое соотношение производительность/ватт

4.Энергопотребление больше чем у двухчипового фдагмана АМД

......

Не советую никому покупать 4** серию у нвидии, лучше подождать новую или взять АМД

28 комментариев
andoriyu 30-05-2010 23:24 0

dronhome, эмм: 1,3,4 минусы это одно и тоже...

dronhome 31-05-2010 01:04 0

andoriyu, эммм ну да ))

ZI_DAN 22-12-2010 22:13 0

dronhome, PhysX и CUDA бесполезны?

Если в игре используется PhysX, то при прочих равных условиях видеокарта nVidia даст многократный прирост производительности. PhysX используется в большом количестве игр. На нём основан один из самых популярных движков - Unreal 3.

CUDA используется в более специфических областях. Обычным пользователям она, скорее всего, не пригодится. Однако назвать её бесполезной точно нельзя.

iBot 22-12-2010 22:21 0

ZI_DAN, может она и не бесполезна, однако из-за жадности нвидюшников стандартной опцией для всех программ ей не стать никогда

iBot 22-12-2010 22:22 0

ZI_DAN, А если она не стандарт то и нахрен не нужна

ZI_DAN 23-12-2010 12:11 0

dronhome, Причём здесь жадность nVidia? Просто пока разработчики делают мало приложений, использующих CUDA. Я, например, слышал о плагинах к продуктам Adobe, которые используют CUDA. Обработка видео в них заметно ускоряется.

Что значит стандартной опцией? Технологию можно использовать там, где она применима. Использовать CUDA для написания калькулятора будет, естественно, глупо.

iBot 23-12-2010 14:58 0

ZI_DAN, Тут идет спор про видеоадаптеры, ОК? ТАк вот, куда с шизиксом не станут стандартыми плюшками, пока не станет доступна во всех видеодаптарах. А она не станет, т.к. нвидео слишком жадна. Улавливаешь?

ZI_DAN 23-12-2010 16:05 0

dronhome, Извини, а зачем конкуренция нужна? У меня средненький ноутбук со средненькой видеокартой nVidia. Благодаря аппаратной поддержке PhysX, я играл на нём в Batman: Arkham Asylum на высоких настройках без тормозов. На AMD сопоставимой мощности эта игра тормозила бы жутко, т.к. PhysX лёг бы на процессор.

Насчёт стандартности я, вообще, тему не понимаю. Есть ПО. В нём всегда указывают требования к железу. Требования бывают разными. Что здесь особенного?

Gopnik 23-12-2010 16:08 0

ZI_DAN, Физикс вобще не нужен.

ZI_DAN 23-12-2010 19:25 0

Gopnik, Как он может быть не нужен если его использует куча игр (список игр ближе к низу статьи).

Gopnik 24-12-2010 08:40 0

ZI_DAN, Ну в миррорс эйдж тряпки красивости добавляют, но в большинстве игр просто становится 100500 частиц, которые захламляют картинку и никакого положительного эффекта не оказывают.

ZI_DAN 24-12-2010 16:04 0

Gopnik, Это не так. В ролике показаны только "самые модные" эффекты PhysX. На самом деле он отвечает за взаимодействие всех объектов в игре: хождение персонажа по полу, столкновение со стенами, столкновение объектов друг с другом, посмертная анимация, осколки от взрывов и т.д. (зависит от конкретной игры). PhysX был разработан так, что может работать без физического ускорителя (т.е. видекарты nVidia). Но в этом случае расчёты ложатся на процессор и FPS сильно падает. Основное преимущество PhysX - это именно высокая производительность при использовании видеокарт nVidia.

P.S. Надеюсь, я понятно описал - зачем нужен PhysX.

Gopnik 24-12-2010 16:08 +1

ZI_DAN, На самом деле он отвечает за взаимодействие всех объектов в игре: хождение персонажа по полу, столкновение со стенами, столкновение объектов друг с другом, посмертная анимация

И в этом он ни чем не лучше того, что было до него.

ZI_DAN 24-12-2010 16:19 0

dronhome, Я же объяснил - не лучше, а быстрее. Намного больше физических объектов можно в игре использовать одновременно.

iBot 24-12-2010 17:26 0

ZI_DAN, быстроту неувидел, только фпс падает. А за физику лучше пусть цп отвечает

ZI_DAN 24-12-2010 21:40 0

dronhome, В ролике FPS не падает. Они просто с обеих сторон время замедляют.

Почему лучше, если за физику будет процессор отвечать? Потому, что FPS упадёт? Не вижу логики.

Сейчас nVidia никого не лишает возможности играть в игры с PhysX без их видеокарт. Только в этом случае нагрузка действительно идёт на процессор и игра работает медленнее.

iBot 25-12-2010 00:40 0

ZI_DAN, Сейчас nVidia никого не лишает возможности играть в игры с PhysX без их видеокарт. Только в этом случае нагрузка действительно идёт на процессор и игра работает медленнее.

Просто мнимается галочка с бесполезной вкладки "использовать шизикс" и игра идет в 5 раз быстрее, ОК?

В ролике FPS не падает. Они просто с обеих сторон время замедляют.

В каком ролике? я про реальные тесты в включенном физиком и без.

Почему лучше, если за физику будет процессор отвечать? Потому, что FPS упадёт? Не вижу логики.

Потомучто гуд когда каждая вещь отвечает за свою операцию: пусть видюха грузит текстуры и выводит картинку, проц держит движок и физику, тогда и все будет в ожуре. Непонимаю зачем извидюх блендер делать

ZI_DAN 25-12-2010 01:32 0

dronhome, Просто мнимается галочка с бесполезной вкладки "использовать шизикс" и игра идет в 5 раз быстрее, ОК?

Не видел такого. У меня если игра тормозит, то она тормозит как с PhysX, так и без него. Хотя всё зависит от конкретной игры.

я про реальные тесты

Можно тесты посмотреть?

Потому что гуд когда каждая вещь отвечает за свою операцию

Так оно и есть. PhysX не использует саму видеокарту. Он использует специальный чип для расчёта физики, который на ней находится, но не как не связан с обработкой графики. Т.е., как сетевая или звуковая карта интегрированная в материнскую плату.

Немного истории. PhysX разработала компания Ageia, которая хотела продавать свой дорогущий дискретный физический ускорить. Компания nVidia их счастливо купила и припаяла этот ускоритель к своим видеокартам. Теперь он достаётся пользователям почти бесплатно.

ZI_DAN 25-12-2010 01:39 0

dronhome, Ещё немного про встроенные чипы. В последние процессоры Intel интегрирована видеокарта! Слабенькая, но в тестах Heroes V хорошо тянет. Ладно чип на видеокарте, там места много. Но как они в процессор видеокарту запихнули? Я в шоке/восторге.

iBot 25-12-2010 02:13 0

ZI_DAN, Ладно чип на видеокарте, там места много. Но как они в процессор видеокарту запихнули? Я в шоке/восторге.

Так так, ты программист? просто интересно как я, ничего не имеющий общего с ит индустрией знаю побольше твоего?

Кстати, насчет интегряшек: скоро выйдет новое поколение процессоров от АМД в которых тоже будет встроено видеоядро, которое, впрочем, неглядя ложит на лопатки интеловское .

Немного истории. PhysX разработала компания Ageia, которая хотела продавать свой дорогущий дискретный физический ускорить. Компания nVidia их счастливо купила и припаяла этот ускоритель к своим видеокартам. Теперь он достаётся пользователям почти бесплатно.

Как бы знал. И?

Хм, тесты пока не нашел. Найду-пуфлиню

ZI_DAN 25-12-2010 04:11 0

dronhome, просто интересно как я, ничего не имеющий общего с ит индустрией знаю побольше твоего?

Я никогда и не утверждал, что очень круто разбираюсь в железе. А ты знаешь каким именно образом Intel и AMD реализуют функциональность видеокарты внутри процессора?

пусть видюха грузит текстуры и выводит картинку, проц держит движок и физику, тогда и все будет в ожуре. Непонимаю зачем извидюх блендер делать

А видеокарта в процессоре тебя не смущает?

Как бы знал. И?

Это я всё к тому, что на обработку картинки чип PhysX не влияет, а отдельное устройство для обработки физики покупать не нужно.

iBot 25-12-2010 08:32 0

ZI_DAN, Intel и AMD реализуют функциональность видеокарты внутри процессора?

Да. У интела видеочип просто туповато под одной крышечкой, а АМД они являются одним кристаллом. Вся разница этих продуктах лишь в способе реализации и в видеоядре.

А видеокарта в процессоре тебя не смущает?

нет. это не столько будет полноценная видеокарта, сколько замена встроенному в материнку видеокарту. В кризис на максималках все равно погонять не получится.

Главный гуд если амд что то типо гибрад кроссфара замутит

Это я всё к тому, что на обработку картинки чип PhysX не влияет, а отдельное устройство для обработки физики покупать не нужно.

Влияет. Все равно приходится прекручивать видюхе эффекты, хоть даже и просчитанные другим процессором. Все равно не вижу плюсов в ней

ZI_DAN 25-12-2010 09:20 0

dronhome, Влияет. Все равно приходится прекручивать видюхе эффекты

Не понял про перекрутку эффектов. Чип PhysX (PPU), GPU и CPU работают параллельно, постоянно обмениваясь данными. Единственные лишние затраты - это затраты на отсылку данных к PPU. Но они незначительны по сравнению с тем объёмом вычислений, который он на себя берёт, освобождая ресурсы CPU.

iBot 25-12-2010 14:37 0

ZI_DAN, а что тогда цп делать? только движок держать? помоему для проца с частотой over 3000 и шестью ядрами просто текстовые квесты выводить?

ZI_DAN 25-12-2010 16:00 0

dronhome, Для CPU всегда куча работы остаётся. Он, например, в выводе картинки ещё как участвует. Прежде чем отдать что-то на отрисовку видеокарте он должен перебрать кучу объектов, перемножить кучу матриц, пройтись по куче условий и т.д. Я делал мониторинг производительности в своих приложениях. На отрисовку приходилось 70-80% от используемых ресурсов CPU. Это уже достаточная причина для использования дополнительных устройств.

Кроме того обработка искусственного интеллекта очень много ресурсов CPU отбирает (особенно качественного). Ещё процессор должен обрабатывать ввод/вывод пользователя, участвовать в выводе аудио и видео, синхронизировать графические и логические операции. Таких "ещё" может быть сколько угодно. Не забудем про то, что всю ОС нужно держать помимо игры.

Мощные шестиядерные процессоры - это здорово. Однако распараллелить логику игры очень непросто. Иногда невозможно даже на 2 ядра что-то раскидать. Поэтому потенциал шестиядерного процессора в среднем будет использоваться примерно наполовину. Да и покупать самые навороченные процессоры по цене нескольких нормальных компьютеров далеко не все готовы.

iBot 25-12-2010 22:32 0

ZI_DAN, ЗАвтра отвечу

painsym 16-02-2012 14:30 0

dronhome, а как же достижения fermi,tesla,cuda
и самая мощная видяшка nvidia quadro fx 5000 ???

23-12-2010 17:06 0

Xbox360 по цене новой видяхи. В нейтралы.

1 комментарий
iBot 25-12-2010 08:35 0

dimax51, коробка стоит 4косых?

28-02-2011 20:54 0

ATI Рулит без вопросов

0 комментариев
28-02-2011 21:45 0

Жирафы сейчас очень много потребляют энергии и сильно греются (смотрим видео на ютубе, где жарят яичницу на радиаторе GTX480).

Технологически Нвидиа слабее АТИ. Они еле сделали свой 40нм продукт, опоздав на полгода, и при этом он был недоработан.

Насчёт дров - ну тут смотря когда. Иногда у АТИ что-то не то выходит, иногда у Нвидия бывает выйдут просто говнянные дрова (вспоминаем выпуск дров, 195-ые вроде, которые отключали кулер на видеокарте.)

По мне так Нвидия - это мощный грузовик, а АТИ - спортивная машина. По скорости примерно одинаковы, но Нвидия жрёт энергии больше, а значит и тепла больше выделяет.

А ещё у Нвидия очень неадекватные фанаты.

1 комментарий
iBot 28-02-2011 23:52 0

MAD19, Они еле сделали свой 40нм продукт
как бы там было дело не сложности освоения тех процесса (если что у них один подрядчик), а в сложности новой архитектуры (которая впрочем дала саснуть последним радикам)

По мне так Нвидия - это мощный грузовик, а АТИ - спортивная машина. По скорости примерно одинаковы, но Нвидия жрёт энергии больше, а значит и тепла больше выделяет.
тупое сравнение. Если что у нвидеа самая быстрая одночиповая видеокарта, да и по габаритам уступает 6990

А ещё у Нвидия очень неадекватные фанаты.
лол. Слышать это от тебя по крайней мере забавно)

25-07-2014 16:01 0

У радеона - скорость и качество. Иногда возникают пробы с дровами но в целом они много лучше Нвидии

0 комментариев