Pull to refresh
0
0

User

Send message
Комментарии (0)

Действительно, какие уже могут быть комментарии…
А можно пример? С удовольствием купил бы) На али что-то аналогичное (т.е. маленькое, с батарейкой и поддержкой Miracast/AirPlay) стоит те же самые $300+
Или 40-80 — это обычные типа «домашние» проекторы без батарейки и чего бы то ни было беспроводного?
На исчерпывающий ответ там претендует другая строка: «Unfortunately, there really isn't any technique that works in general». И это, увы, так: никак нельзя узнать что происходит с другим потоком. Может, он заблокировался на IO в нативном коде, и тогда stop() вообще ничего не даст. А может, он висит на мониторе, и тогда прерывание работы приведет вообще неизвестно к чему. Единственный случай когда может быть и можно рискнуть со stop() — это «вечный цикл», и то, надо держать пальцы крестиком и надеяться что вылетевший в случайном месте ThreadDeath не будет заглушен, корректно обойдет все finally блоки, освободит ресурсы, разблокирует мониторы…
Может быть, метод Thread.stop() не так уж опасен?

Хм. Это сложный вопрос. Что такое «опасен»? Зависший тред сразу показывает что что-то явно не так с приложением. А если тред убить — то ничего подобного не видно: ошибки могут проявляться не тут, не сейчас, и/или не всегда, и ловить их будет оочень весело. Собственно, все эти причины описаны в тех же жавадоках, как и методы относительно правильных решений этой проблемы: docs.oracle.com/javase/7/docs/technotes/guides/concurrency/threadPrimitiveDeprecation.html
Именно так и работает interrupt():
while (!interrupted()) {
// code here
}
Думаю, тут проблема в том что просто_объекты могут быть изменяемыми. Даже если не касаться вопроса оптимизации (нельзя просчитать хэшкод во время компиляции), я даже представить боюсь к чему может привести свитч по изменяемым объектам…
Правило 13 — это веский аргумент, но много ли под Андроид «длинных» проектов с уже устоявшимся стилем? Думаю, не очень — именно поэтому и хотят ввести какие-то соглашения. Пока не поздно)
Про this — не понял. Имя параметра сетера, равное имени локального филда — это скорее правило, чем исключение. Забыть про this я не знаю как можно, в 95% случаев геттеры/сеттеры генерятся IDE. Да и что собственно изменится? Ну назвали филд не field, а mField. Все равно же будет сеттер setMField с таким же параметром mField. Или они предлагают сеттер называть setField, нарушив спецификацию java beans?
Врядли это цель — скорее уж я поверю в повышение наглядности за счет того, что явно видны различия между статик и обычными филдами, как когда-то добавляли к имени идентификаторы типа, вроде bdField для BigDecimal. Но актуально ли это сейчас, с учетом возможностей IDE? Не уверен… И, как специально, к этому пункту они не написали ни «pros», ни «cons», ни «why».
Не очень много отличий от java code conventions, а из андроид-специфичных — так и вовсе только порядок импортов.
Причем те отличия, которые действительно будут видны — несколько спорны. Зачем, например, добавлять m к приватным полям класса? Чтобы автокомплит запутать?
В каком смысле «зачем»? Не должно у него стоять такого вопроса. У него должен быть выбор: или он сдает дающего взятку и получает профит, или идет под суд за получения взятки, т.к. дающий тоже может быть заинтересован в том что бы взяточника посадить. Как заинтересован — вопрос не до конца понятный, я об этом сразу писал.
При такой постановке вопроса явление просто исчезнет. По крайней мере — массовое. Ибо боязно будет нарушать зная, что это уже совсем не обоюдовыгодная сделка — второй человек более вполне может захотеть тебя посадить)
Не-не, я написал какой момент важен. Сейчас эти процессы — действительно, «пчелы против меда». Ибо какой смысл чиновнику в суд идти? Чтобы совесть не мучила? А здесь будет вполне реальный профит: и деньги получил, и законы не нарушил. Именно в этом и смысл.
Поддерживаю людей, которые считают что проблема не в том, что взятки берут. А в том — что их дают. Или кто-то свято верит что чиновники суют деньги друг-другу, без участия в этом процессе «простых честных людей»?

А от взяточничества избавится очень просто: устанавливаем срок 5 лет как за взятие взятки, так и за дачу очной. Даем возможность каждому чиновнику засвидетельствовать факт дачи ему взятки. Дающий садится на 5 лет, чиновник (важно!) оставляет деньги себе. Желающие давать взятки, думаю, очень быстро кончатся.
Конечно, нужен еще и обратный механизм, но тут надо придумать как мотивировать людей. Если с чиновниками все просто, то что может получить обычный человек? Решение своего вопроса? Так не факт что он прав… Разве что премиальный фонд организовать, но тут все-таки дополнительные затраты, в отличие от.
IDEA. Что есть «AspectJ build path»? Нельзя ли какой-нибудь IDE-независимый пример, типа src -> ant -> работающий jar?
Что-то работать не желает,
Order order = new Order(154);
возвращает обычный класс (не прокси). Я чего-то не понял про запуск? В класспасе aspectj-1.6.8.jar, cglib-2.2.jar и hegel4j-0.1.0.jar. Код — скопирован.
Сегодня отдали винт (проект, где участвую, арендовал выделеный сервер) из секции B. С виду — целехонек, как оно на самом деле пока, конечно, неясно. Держим пальцы крестиком, т.к. внешние бэкапы отнюдь не первой свежести…
Что-то я не совсем понял. GPS/ГЛОНАСС — это ведь не более чем приемники? Как вообще будет осуществляться контроль положения «огра»? Девайс будет писать себе во внутреннюю память, и раз в неделю (предположим) — контрольная проверка в райотделе? Так за неделю можно далеко уехать! Хорошо, мы не полагаемся на память, а посылаем все время какие-то сигналы. На сколько тогда хватит батарейки, и что будет если она таки сядет? Плохо я в общем представляю себе реальное применение таких браслетов…
Вай. Это мне видимо? Отвечаю =)
Нет ближе к 100Гц
TN матрица к примеру имеет время отклика 10 мс (и ниже) итого 1000/10мс = 100 Гц

10мс — это не то. Это время, за которое пиксель меняет цвет. Частота работы интерфейса — 60Гц, это значит что монитор получит 60 кадров за секунду и ни одним кадром больше, соотв все, что выдает видеокарта сверх этих 60 кадров — грубо говоря до лампочки.

По поводу памяти: я рад за людей. Которым хватает 2 гиг. Без малейшего сарказма. Но у меня на работе вот было 2 гига. Я мучался пока мне не поставили еще 2, потому как «крейсерский» объем занятой памяти — 2,6Гб, причем вся она реально нужна. java, блин… И когда запускался gc, понимал весь своп для очистки/дефрагментации памяти — наступал кромешный пипец, я в такие моменты сразу шел пить чай. И основной посыл был в том, что пока памяти хватает — это нормально, но вот если она вдруг кончится…
Вам возможно это и кажется нелепостью, а остальным может дать полезные сведения о соотношении производительности аналогичных моделей разных брендов.

Ничего кроме о_О я на это даже и сказать не могу. «Аналогичные» это модели, ориентированные в одну нишу (стоящие примерно одинаково). Причем тут вообще частота?! Я понимаю еще когда на этот параметр смотрят оверы: у них цена процессора жестко фиксирована (= цене самой дешевой модели), частота тоже жестко фиксирована (= средней частоте разгона), тогда можно прикидывать что «проц Х даст мне столько-то производительности, а проц У — на 15% больше». Во всех остальных случаях такое сравнение — это полная чушь.

Может «очень сильные» отличия и заявляются производителем, но на практике заметно только влияние того же кэша.

На практике есть различие производительности, но из-за того, что отличается не только объем кэша — нет никакой возможности определить он ли так повлиял или же что-то еще. Такое сравнение — чистый фарс. Я даже не знаю как понятнее объяснить. Вот возьмем пример, смотрим на Агену (2Мб L3) и Пропус (без L3). Бааа! Дак Агена медленнее! Значит, 2Мб кэша только мешают!
А сравнение в принципе похоже на такое же для Е6300 с Е8300: Wolfdale (тут Пропус, К10.5) является небольшим улучшением Allendale (у нас тут Агена, К10), и раз отличий почти нет, думаем что различаются они только объемами кэша.

Декодер CoreAVC, например, выполняет фактически ту же функцию что и DXVA, но совсем не привередлив к параметрам файла — достаточно, чтобы он была закодирован нужным кодеком (H264/AVC).
Прирост производительности в вышеуказанных приложениях при включении CUDA составляет от полутора до ДЕСЯТИ (!!!) раз.
Что не так?


*Вздох
Самое главное «не так» состоит в том, что ни слова не сказано зачем это все нужно и какие преимущества дает.
А преимущества — это вовсе не «прирост производительности» в десятки раз (ага, 240 кадров/сек вместо 24), а снижение нагрузки на CPU.
При одной частоте.

А с чего вдруг, частота — такое же свойство мироархитектуры, как и IPC (производительность на такт).

А вот это не совсем понял.

Приведу простой пример: NetBurst (aka Пентиум 4). Много ли были смысла сранивать его мегагерц-к-мегагерцу с решениями К7? Верно, смысла было ноль целых ноль десятых, т.к. архитектуры были совершенно различные. и частоты тоже. То, что сейчас сачтоты одного порядка, да и архитекуры у обоих вендоров короткокнвеерные — общего правила о нелепости сравнения на одной частоте не меняет.

И много ли эта разница в ассоциативности даёт?

Разные, но так уж критичны рахличия

Угу, вы ещё про Ganged/Unganded режимы вспомините, которые 1% отклонений в обе стороны дают)))
Характеристики, не заслуживающие внимания я рассматривать не стал.

Если честно, то такие заявления чести не делают. Это же не я взялся сранивать грузина с чемоданом, почему я должен дказывать что различия существенные? Я говорю, что выбранные ядра различаются очень сильно, далеко не не только объемом кэш-памяти (как, например, Phenom II X4 9** против 8**).

Как-то не приходится по 10 секунд ждать, хотя живу с 2Гб =)

Везет значить, мало требовательного к памяти софта и в своп ничего не падает. Мне даже 4Гб было маловато, не люблю закрывать программы и не люблю своп. Но в любом случае в статье никак не освещен момент «зачем же на самом деле нужна память?», и это плохо.

Некоторые и 120 умеют. В любом случае, «максимум» этот — видимый. Важно, чтобы был «запас» FPS, который пригодится на случай тяжелых сцен.

Те, которые умеют 120 можно пересчитать по пальцам одной руки. Абсолютное большинство реально используемых моников имеют максимум в 60Гц.
А сильный «запас», который вроде бы «карман не тянет» приведет к разрывам изображения, и будем мы потом бороться с этим vsync'ом.

Это обзорная статья, я не могу вдаваться в особенности использования каждой отдельной софтины, а в целом описание ситуации дано.

Настаиваю на том, что никакого обзора возможностей не дано. Так, мимоходом написано, что, мол что-то там есть, но DXVA работает неизвестно с чем, а про CoreAVC (который, кстати, не единсвенный) написано 1 предложение, из которого даже неясно какие реальные преимущества можно получить (а они таки есть).

За основу брались крупные тесты большого количества процессоров, результаты выражались в процентах. Дальше, если наблюдалось расхождение с результатами другой лаборатории — корректировка.

То есть «по ощущениям», без какой-либо методики. Плохо. Правильно я сделал что просто все графики пропустил.

А это уже исключительно ваше мнение.

Ну… Не совсем. Из 4 ресурсов только fcenter и ixbt имеют внятную методику. оверы тестирую кто как и чем хочем, авторского состава не осталось же. Thg.ru занимается переводами, притом не всегда удачными. С методикой тоже не все хорошо, набор приложений часто меняется от статьи к статье.

В том и цель — разобраться, что именно нужно покупать, а не что нам «продают».

Для этого гораздо лучше подходит методика из первой статьи: покупаем самое дешевое, удовлетворяющее всем требованиям.
Дааа, прошлая статья была гораздо лучше. Отстраниться от всех маркетинговых цифр и выбирать железо исходя из потребительских характеристик. пользуясь принципом здорового аскетизма — хорошая идея.

Но эта статья… Такого количества технических ляпов и откровенного бреда в одном месте я уже давноо не видел!
Пойдем по тексту статьи, по порядку. Хотя комментарий получится немаленьким.
Итак:
> сравнение производительности современных микроархитектур в различных задачах.
ЧТО на этом графике? Что вообще значит «производительность микроархитектуры»?! Это показаны результаты при одной частоте? А с чего вдруг, частота — такое же свойство мироархитектуры, как и IPC (производительность на такт). Да и какое кому дело до реальной частоты процессора, если в магазинах процессоры не по мегагерцам продают?
Может, тогда это производительность/$? Было бы разумно, но я что-то в этом сомневаюсь ;)

> Core 2 Duo E8300 и Pentium Dual-Core E6300 выполнены на одном ядре — Wolfdale, а различаются в первую очередь именно объёмом кэш-памяти — 6мб против 2мб
Нет, отличаются они отнюдь не только объемом кэш-памяти! У них кроме объема еще и ассоциативность разная. А еще у Е6300 отсутсвует SSE4, микроархитектурно отличается, да и вообще он не более чем Allendale на 45нм. Мерять в такой ситуации 2 vs 6 мб кэша — скорее очковтирательство.

> аналогично Phenom II X4 925 отличается от Athlon II X4 630 только наличием 6мб кэш-памяти 3 уровня
Капец. Это совершенно разные ядра! Вообще! Несмотря на то, что они вроде как одного поколения. Кроме отсутствия кэша L3 у X4 630 (Propus) отсутсвует uncore, в котором у Phenom II X4 (Deneb) расположен контроллер памяти. И с памятью эти два ялра работают по-разному. Пропус, кстати, тут немного быстрее. Надо думать и-за частоты КП, которая у Денебов ощутимо ниже частоты ядра.

> Некоторые игры весьма позитивно относятся к его увеличению до 3-4Гб
Правда? Этот какие игры так относятся? Обычно их под х64 не собирают, а х32 более 2Гб откушать не могут.

> часто вы будете одновременно например играть в крайзис, рипать свежий BD-диск, а попутно ещё и архивировать что-нибудь? Мне кажется, что очень и очень нечасто.
Да, часто. В пункте про память не освещен самый важный вопрос: избыток памяти никоим образом ничегошеньки не ускоряет. Ни на процент. Зато ее недостаток снижает быстродействие в разы, если не в десятки раз.
Что касается собственно объема — то тут надо просто посмотреть на свой используемый софт. ОС, торрент, dc, антивирь. фаервол, браузер, парочка утилит в трее — вот нету гигабайта. А мы работать (а тем более — играть) еще даже не начинали! Так что о 2Гб я бы лично посоветовал забыть как о пережитке. Или готовится что любой Alt+Tab будет выполняться по 10 секунд.

> вообще, Windows ограничивается уже на 3.25Гб
Вообще, это не Windows виновата. И вообще, не на 3,25, а как повезет. Неудачный подбор устройств может отрезать и на 2Гб. Советую почитать www.ixbt.com/soft/windows-4gb.shtml прежде чем писать подобный бред.

> Видеокарта НЕ используется в процессе работы с 2D-графикой;
мм? То есть можно работать с 2D без видеокарты? Шикааарно!
То, что качество 2D у всех современных видях одинаковое (одинаково высокое) еще не значит что видеокарта тут ни при чем!

> Видеокарта НЕ используется в процессе воспроизведения видео.
Используется. Причем на ура используется! Причем справляется с декодированием тяжелых форматов гораздо лучше процессоров. Дальше по статье по полслова сказано про DXVA и CoreAVC, но насколько невнятно и неполно, вообще без указания преимуществ, что, думаю, можно высказать «фе» уже в этом месте.

> AMD выпускает апдейты драйверов строго раз в месяц, и на этот график не могут повлиять ни внезапно обнаруженные баги, ни прилёт НЛО, ни прочие факторы;
Хм, а сами АМД об этом знают? Наверно, нет, раз в случае проблем без особых угрызений совести выпускают хотфиксы.
У нВИдиа, кстати, тут все похуже (мнение как владельца): если не бегать на сайт каждую неделю за бетами, то ждать финального WHQL релиза с пофикшеным багом можно месяцами!

> имеет не 2Гб памяти, а по 1Гб на процессор. А какая разница? Очень большая — каждый из ГП может использовать только свою память. Так-то =)
И что? Ее при этом меньше стало? Бытует, правда, мнение, что память там дублируется. Но это не совсем так — дублируются в основном текстуры.

> «Уровнем комфорта» — вдвое больше, т.е. 50-60FPS.
Не только уровнем комфорта, а еще и максимумом. Какая там частота обновления у ЖК? 59-60Гц? Тот-то и оно.

Ну и так, общие замечания.
мне совершенно непонятно что за данные нарисованы на графиках, поэтому я уже после претензии к первому же — просто перестал на них смотреть. Что это? Самопал? Сбор данных с разных сайтов? Или «по ощущениям» простения аж четырех ресурсов, из которых реального уважения достойны всего два?
В основном потому, что если условие будет немного сложнее != null, то момент присвоения может зрительно потеряться. Или еще хуже — если глядя на чужой код будет неясно, опечатка это (должно быть сравнение) или так и задумано? В данном случае — да, сэкономили строчку (надо было бы делать присвоение и до цикла, и внутри него), но я стараюсь так не писать.

Information

Rating
Does not participate
Registered
Activity