В рамках участия в работе недавно представленной (https://www.opennet.ru/opennews/art.shtml?num=34093) некоммерческая организации HSA Foundation, которая будет заниматься развитием открытых стандартов для гетерогенных вычислительных систем в которых в процессе вычислений кроме CPU используются средства параллельных вычислений GPU, компания AMD планирует (http://www.phoronix.com/scan.php?page=news_item&px=MTEyMzQ) полностью открыть свой стек HSA (Heterogenous System Architecture), состоящий из генератора промежуточного кода, патчей к LLVM, ассемблера, библиотек, runtime-компонентов, а также специфичного для GPU AMD модуля ядра для Linux. Исключение будет сделано только для фронтэнда парсера C++, который был разработан сторонней компанией в качестве коммерческого компонента.<center><iframe src="http://www.slideshare.net/slideshow/embed_code/13381696?rel=... width="510" height="426" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" style="border:1px solid #CCC;border-width:1px 1px 0" allowfullscreen></iframe>
</center>URL: http://www.phoronix.com/scan.php?page=news_item&px=MTEyMzQ
Новость: https://www.opennet.ru/opennews/art.shtml?num=34151
AMD вовремя вспомнила, что вот она-то открывает спеки, в отличие от некоторых, и решила лишний раз подчеркнуть этот факт :)
Удачный момент для анонса, чего уж там.
> AMD вовремя вспомнила, что вот она-то открывает спеки,у них все второго и ниже сорта - скрывать нечего вот и открывают, я их продукцию за версту обхожу стороной :)
> у них все второго и ниже сорта - скрывать нечегоЖирнота. Видяшки у них очень даже симпатичные: мало жрут и хорошо считают.
Они когда с Intel разошлись после 80386 - пошли по пути гонки мегагерц - разогнали 80486 до 133 МГц и на каждом углу своими же тестами тыкали что их процессор уделывает интеловский Pentium, а Intel спокойно разработал Pentium с суперскалярной архитектурой а немного позже и SIMD(mmx) добавил. С тех пор у меня никогда не возникает вопрос - какого производителя выбрать :) ах да - еще случай из жизни, зашел в кабинет к товарищу по работе - смотрю он весь в дыму и явно судя по специфическому запаху - дым не табачный. "Что это было ?" спрашиваю, ответ - "атхлон" :) ниразу не видел чтобы интеловские процессоры так горели.> Видяшки у них очень даже симпатичные: мало жрут и хорошо считают.
для видео мне с головой хватает интегрированных интеловских видеопроцессоров, а считаю я и в уме неплохо :)
Видеокарты делала совсем другая компания ATI, которую потом купила AMD
> а считаю
> я и в уме неплохо :)Может посчитаете моллекулярную динамику? А то задачка на 2-х AMD-шных 6750 уже третьи сутки считается и пока только 50% ;-)
>6750А почему не 6450?
> А то задачка на 2-х AMD-шных 6750 уже третьи сутки считается и пока только 50% ;-)Возьмите что-нибуть выше классом - nvidia, давно бы уже все посчитали на одной :-)
и с какой стати знающий человек станет прислушиваться к советам фанатика?
> Может посчитаете моллекулярную динамику? А то задачка на 2-х AMD-шных 6750 уже
> третьи сутки считается и пока только 50% ;-)Зато SHA-1 они лупят - мама не горюй. Стобаксовый 5770 спокойно обставит теслу :)
если это было сделано на коленке, тем что можно свободно скачать, тут собственно и удивляться нечему, для некоторых узкоспециализированных задач их пачками покупали и они себя отбили несколько раз(вместо того чтобы покупать топовые хеоны/оптероны купили в 5 раз меньше по деньгам видеокарт, так что буржуи ,как оказалось, деньги считать умеют) и по срокам выполнения и энергопотреблению. Главное здесь архитектор всего этого GPGPU веселья.
"суперскалярная" архитектура это новый корм от маркетологов для лохов вроде тебя
оставьте эти дешевые советы из жизни при себе, смотрятся как ответ нвидии линусу
Не знаю что у них там симпатичного, звук вентилятора моей HD 6970 под нагрузкой как от ракеты на взлете.
со звуком от вентилятора - притензии вообще-то не в кассу.
Вообще-то он прямо пропорционален нагреву
вообще-то 250 Ватт, сопоставимо по потребляемой мощности GTX 480
что-то мне подсказывает, если карточку с от нвидиа от того же производителя, то шуметь она будет так же
> вообще-то 250 Ватт, сопоставимо по потребляемой мощности GTX 480
> что-то мне подсказывает, если карточку с от нвидиа от того же производителя,
> то шуметь она будет так жевы не поверите, но у каждого поизводителя по несколько моделей на одном видеочипе, да, все с разными системами охлаждения бывают
спасибо, капитан! а у машин бывают еще колеса разного диаметра...
> Не знаю что у них там симпатичного, звук вентилятора моей HD 6970
> под нагрузкой как от ракеты на взлете.А ты воткни самую топовую видеопечку от нвидии и расскажи как тебе оно :)
Интересно было бы посмотреть от AMD способы ОПТИМИЗАЦИИ кода на РАЗНЫХ моделях GPU, а потом объявлять о таких новостей.Все, кто хоть немного знает CUDA - там всякие оптимизационные моменты по банкам памяти, например. - Как видеопамять расположена на видеокарте. Иная оптимизация позволяет в разы увеличить скорость выполнения на GPU. Правда в последнее время NVidia уходила все дальше и дальше, от необходимости таких оптимизаций, но ВООБЩЕ НЕ ПОНЯТНО КАК У AMD.
Может это холивар. Мысль у нее зреет, через несколько лет что-то увидим. К тому времени она пройдет нелегкий путь NVidia.
Может будет и лучше, но пока все под сомнением.
что такое NVidia?
Это те которые под свои топовые видяхи выпускаю драйвера под линукс спустя год, когда они уже совсем не топовые.
Гляди, там уже есть 690 GTXftp://download.nvidia.com/XFree86/Linux-x86_64/302.11/README...
[сообщение отредактировано модератором]
> [сообщение отредактировано модератором]I love you, baby :)
Это компания с лицом айзена.
> Это компания с лицом айзена.Не, это компания с лицом с сайта http://nvidia-drivers.enodev.org/
Это я не выспался. Остальную, самую вежливую часть фразы - во сне тебе доскажу...
> а потом объявлять о таких новостей.Русская языка такая сложная.
> ВООБЩЕ НЕ ПОНЯТНО КАК У AMD.
Посмотрите как это делают другие. В тех же майнерах биткоинов - рубаются за каждый megahash/sec. Отличный пример на поучиться. Кстати нвидия и близко не стояла по производительности в этой задаче :)
это называется NUMA, не такая уж новая вещь и проблема
Это хорошо, видюхи все равно никуда не уйдут. Запилили бы еще хорошие открытые дрова со всеми фичами закрытых.
> Это хорошо, видюхи все равно никуда не уйдут. Запилили бы еще хорошие открытые дрова со всеми фичами закрытых.Это законодательно запрещено. Сторонние патенты.
> Это законодательно запрещено.Номер закона в студию!
Э-э-э, нет.
Не надо.
Уж лучше дождаться улучшений в открытых.
По нескольким причинам.
1. Открытые дрова пишутся с учётом унификации нескольких вендоров (всех что есть в лине).
И это здорово.
2. Реализация месы ещё отстаёт, но она работает с открытыми дровами для карт всех вендоров, включая мобилки.
3. Если всё это выгорит, то мы получим единый стэк для современных 3D-карт, стандартизованный примерно как в своё время веса для 2д.
А то сейчас ситуация — кто в лес, кто по дрова.
Именно из-за этих пунктов нвидиа говорит что заинтересована в сообществе.
Т.к. именно тут клепаются стандарты на следующее поколение видео.
Также как это было к примеру с виртуализацией.
Если собрать народ и задонейтить, тем самым подняв их интерес, это им поможет или у них нехватает людей ?
думаю помощь любая не помешает
выберите проект http://www.freedesktop.org/wiki/Software и можете продонейтить или ещё как помочь.
зыж
а вообще ознакомится с ситуацией (да и вооще почитать доку, статус разработки) лучше тут
http://www.x.org/wiki/DeveloperStart
Видюхи отдельно, сами по себе, исчезнут же. Производители процов уже начали конкуренцию с производителями видюх
Угу AMD c ATI конкурируют жутко.
Конкурировали.
Иначе зачем ещё амд их купила.Зыж
Да, видух дискретных будет становиться всё меньше.
Тем больше ценность тех стандартов, что закладываются в открытых_дровах/меса/галиум/итд.
> Конкурировали.А что, амд делали видеокарты до этого?
Нет, но захотела делать.
Первое.
Ряд патентованных технологой (в частности кроссфаер) теперь применяется и в цпу.Другими словами — ати это профильные активы амд.
Следовательно, купила конкурента.
> Нет, но захотела делать.
> Первое.
> Ряд патентованных технологой (в частности кроссфаер) теперь применяется и в цпу.
> Другими словами — ати это профильные активы амд.
> Следовательно, купила конкурента.бред сивой кобылы
Это всё от недостатка знаний.
При упорном труде сможете исправить.
Внезапно делали, в до-3dfx времена. И даже сетевухи делали, и многое другое.
AMD их купила, потому что хотела иметь собственное решение интегрированной графики. Поскольку на интегрированной графике работают миллионы офисных машин, и это крупный рынок. При этом на тот момент nVidia и Ati городили достаточно дорогих монстров в качестве чипсетов, а на SiS и VIA особой надежды уже не было.
Я вот собираюсь следующий комп брать с интегрированной видюхой.Вообще есть впечатление, что сращивание чипов позволяет обходить какие то патенты. Все встроенные видюхи идут с открытыми дровами, как то знаково, или я ошибаюсь... Intel точно
Intel и видео не вариант... почему не решения АМД?
> Intel и видео не вариант... почему не решения АМД?Вопрос что на то время будет рулить. Intel делает чипы с открытым драйвером, жумаю эпл не зря их юзает
> жумаю эпл не зря их юзаетОпечатка не то чтобы по Фрейду, но по делу :)
Интегрированные видюхи грузят системную память - производительность компа сильно проседает. Пока не купил для игрушек нормальную видеокарту - не представлял, что настолько.
системная память сейчас стоит 1000 рублей за 4 гб, вопрос можно снять количеством
> вопрос можно снять количествомBandwidth никаким количеством не снимается. Пропускная способность всяких там GDDR5 просто более другая нежели у ddr3. Это куда более дорогая память. И куда как более шустрая.
Попробуй догадаться, почему DDR-3 паяют только в самые дешевые "затычки для слота"? А тут оно еще и с процом делится.
Проблема в том, что период насыщения частотами завершается.
(Кстати, не напомните на какой частоте работает гддр5 в среднестатистической видюхе?)
Зыж
И ещё. Современные процы могут адресовать одновременно разные банки памяти.
О чём это говорит?Другое дело что видюхи адресуют сразу 256, а не 64.
Но, берём ддр3 1666 и гддр5на 800 и получаем уже совсем не астрономическую разницу, как в их цене.
> Но, берём ддр3 1666 и гддр5на 800На моей весьма немолодой и недорогой видеокарте средненького сегмента GDDR5 вообще-то на 1200 заклокано... ;)
А на моей максимум — 575.
А минимум — 135.
При этом частота гпу от 270 до 1265.
Почему? Потому что это ноут.
И температура этой нвидиа сейчас 58 по цельсию.Чтобы не быть голословным gtx330.
И именно про ноуты речь шла, не так ли?
А основнаяя память у меня — кингстон 1666.
> А на моей максимум — 575.Ну извините, я про нормальные GPU говорил а не обрезки.
> А минимум — 135.
> При этом частота гпу от 270 до 1265.
> Почему? Потому что это ноут.Не мои проблемы - у этих обычно вообще все кастрировано по максимуму. В свете чего лично я не понимаю смысл покупки ноута с дискретной графикой, если честно. Жрет от батарейки больше, а нормальным GPU все-равно не является, в лучшем случае соревнуясь с младшими затычками для слотов, которые покупают "чтобы было через что картинку выводить". Да, на таких и DDR3 на хилой 64-битной шине достаточно. Только вот обладатели этого врядли сильно заинтересуют гетерогенные вычисления: на таком GPU сильно много не наакселерируешь.
> И температура этой нвидиа сейчас 58 по цельсию.
А у моей десктопной AMD на холостом режиме 44 градуса. Ну оно валит на аж целых 157MHz GPU (при 800 максимальных) и 300MHz RAM (при 1200 максимальных). По поводу чего жрач довольно кардинально падает, ну и кулер затыкается. Это кстати с открытым драйвером :)
> Чтобы не быть голословным gtx330.
Урезки какие-то. Они к топику имхо вообще довольно вяло относятся. В том плане что гетерогенные вычисления на этом - скорее кучка лулзов нежели что-то полезное на практике.
> И именно про ноуты речь шла, не так ли?
Это у вас она шла, а у меня - про GPU вообще, ну и про интеграцию СPU, GPU и архитектуру взаимодействия всего этого. Ну то-есть про предлагаемый амдшниками сабж aka несколько расширенное и оптимизированное представление о opencl по версии амдшников. Он ни разу не ориентировано на только ноуты и вообще, ноут в роли заакселерированного GPU девайса - хиловато смотрится, скажем честно.
> А основнаяя память у меня — кингстон 1666.
Ну я рад за вас. Правда по прежнему не понимаю смысл сравнивать недомерков на тему "кто дохлее".
На открытых драйверах можно использовать всю вычислительную мощь GPU?
> На открытых драйверах можно использовать всю вычислительную мощь GPU?Уже буквально на подходе - в git вкоммитили практически всю инфраструктуру opencl. Да, опенсорсники собирают автомобиль прямо во время гонки, на ходу. Но это сцуко красиво а потом еще и втапливает годно :)
> В свете чего лично я не понимаю смысл покупки ноута с дискретной графикой, если честно.Что и требовалось доказать.
> Проблема в том, что период насыщения частотами завершается.Там дело в пропускной способности. У графической памяти за счет ряда трюков бандвиз довольно дикий и прилично делает обычный DDR3 при прочих равных.
> (Кстати, не напомните на какой частоте работает гддр5 в среднестатистической видюхе?)
~1000-1200МГц примерно. Не забываем умножить на 4 (QDR шина) и х32 (32-бита). Типично, у современных чипов скорость порядка 16-20Гб/сек на чип, а иногда и больше. На фоне которых 12.8 от DDR3-1666 выглядят хиловато, а если вспомнить что на них еще и проц претендует, при том что GDDR5 доступен GPU монопольно...
Делает. Ктож спорит то.
> Типично, у современных чипов скорость порядка 16-20Гб/сек на чип, а иногда и больше. На фоне которых 12.8 от DDR3-1666 выглядят хиловато, а если вспомнить что на них еще и проц претендуетНе претендует. Одновременная адресация разных банков памяти в современных чипах.
Да и память уже по 2800MhzЗыж
Никто не говорил, что встроенные могут тягаться с топовыми игровыми.
А вот с середнтчками (а такие как раз в ноутах) — вполне.
(Особенно если этот ноут будет держать память до 2800)
> Не претендует. Одновременная адресация разных банков памяти в современных чипах.
> Да и память уже по 2800MhzОна в лучшем случае еле-еле может посоревноваться с GDDR5, и то - если делить с процом, а ничего что проц весь код из оперативы молотит и сам не дурак ее прогрузить? А в нормальных GPU - скоростная оператива на выделенной шине прямо к GPU присобачена. Что позволяет ему показывать нетривиальные скорости работы с оной.
> Зыж Никто не говорил, что встроенные могут тягаться с топовыми игровыми.
> А вот с середнтчками (а такие как раз в ноутах) — вполне.Простите, с какого моя видеокарта - топовая? Средний класс как раз и есть. А то что у вас - похоже может только с заглушками для слота посоревноваться. Хотя для некоторых вычислений типа массового крякинга хешей - ПСП не так уж важна. Но тут нвидия вкурит по поводу небольшого количества вычислительных ядер зато. И так и эдак числокрушилка получается декоративно-номинальная весьма. Оно не сделает мою 100-баксовую видяху ни по ПСП, ни по числу вычислительных ядер.
> (Особенно если этот ноут будет держать память до 2800)ИМХО лучше сразу уж кластер из тетрисов собрать. Чего мелочиться то?
Не, в ноутбуки иногда даже ставят не очень отстоынйе GPU, но это обычно 17" модели весом в 4 кило. Не таскабельные напрочь. Что делает их малоинтересными как ноутбук...
Ну как бэ я у несколько раз говорил про нехависимую адресацию банков. Раз.
Два. Данные в память видио-карт тоже не из космоса попадают. А все оттуда же, из озу и через pci.
да хоть обадресуйся независимо, полоса пропускания ниже, минимум в 2 раза по определению а с учетом трюкачества GDDR5 разница на реальных приложениях может быть и больше. По-этому и говорят что надо или адского размера кэш делать для встроеного видео ядра (года чеерз 2 я увеен так и будет, и у AMD и у интела), или использовать отдельную видеокарту.
>да хоть обадресуйся независимоДА ХОТЬ ОБОБОБСРИСЬ, но данные в видео-память попадают из обычной ОЗУ, в то время как в обычном озу достаточно переключить банки памяти.
>с учетом трюкачества GDDR5если знаешь эти «трюкачества», то расскажи народу.
а то слышал звон, а фламастер красный.
особенно это:
>По-этому и говорят что надо или адского размера кэш делать для встроеного видео ядракакой в попу тут может быть кэш! вообще бред сивой кобылки.
> Ну как бэ я у несколько раз говорил про нехависимую адресацию банков. Раз.Так у GPU тоже знаете ли незвивисимая адресация чипов.
К тому же у графических чипов два набора клоков, так что передаются и адрес и данные одновременно.
> Два. Данные в память видио-карт тоже не из космоса попадают. А все
> оттуда же, из озу и через pci.Ну как бы удачи доказать тезис что 2 проца дерущихся за 1 обычную память - это лучше чем 2 проца, один из которых с вообще дец быстрой памятью, а второй с обычной :). А PCI-E узким местом не является, да и DMA сто лет как придумали.
>Так у GPU тоже знаете ли незвивисимая адресация чипов.
>К тому же у графических чипов два набора клоков, так что передаются и адрес и данные одновременно.угу.
но своей.
что какбэ логично не отменяет в/в между видео-памятью и озу.>Ну как бы удачи доказать тезис что 2 проца дерущихся за 1 обычную память - это лучше чем 2 проца,
в первом предложении «знаете ли незвивисимая адресация чипов», во втором «2 проца дерущихся за 1 обычную память».
определитесь уже.
> промежуточного кода, патчей к LLVM, ассемблера, библиотек, runtime-компонентов, а также
> специфичного для GPU AMD модуля ядра для Linux.Кто может пояснить, про какой модуль ядра идет речь?