Архив полиграфического форума forum.print-forum.ru

Еще немного о стохастике [Архив] - Принт-форум - полиграфическая продукция, сувениры, наружная реклама.

PDA

Нажмите, чтобы перейти к полной версии темы: : Еще немного о стохастике


Zakhar
27.06.2005, 11:10
Главный ее недостаток - мелкая точка. Но это было верно для стохастических растров первого поколения наподобие Crystal Raster компании Agfa. Достаточно поглядеть в лупу на «червячков», которые образуются при стохастическом растрировании второго поколения, чтобы понять, что проблема эта ушла в прошлое. Конечно, растискивание остается несколько выше, чем при обычном растре, но его можно учесть на этапе допечатной подготовки. Проблемы с мелкой точкой остались только для 10-микронного растра. Уже при размере точки 21 микрон минимальный размер точки соответстует 2% растра при традиционном растрировании с линиатурой 175 lpi. Так что для печати вполне достаточно нормальной, не совсем уж раздолбанной машины. Типографий таких полно.

Valery
27.06.2005, 21:30
"Чем сидеть и думать, что ты - первый грузинский комонавт, и тебе за это премию дадут, - верни лучше ложку, которую ты украл у бедных артистов"(С)Киндзадза
Я тебе иногда удивляюсь.
Сообщить ясную всем вещь, как свое личное открытие и ждать Нобелевскую, - это супер.

antr
28.06.2005, 12:25
еще интересно написали в последнем Сиболде - о причинах, сдерживающих ее продвижение в газеты. Я б перевел для тех, кто не имеет доступа или слабо понимает по-нерусски, но не знаю, как быть с авторскими правами.
Коротко - основная причина в невозможности "ручками" корректировать интенсивность в средних тонах при плохо сделанных формах.

Zakhar
28.06.2005, 16:05
Оригинал принадлежит antr
еще интересно написали в последнем Сиболде - о причинах, сдерживающих ее продвижение в газеты. Я б перевел для тех, кто не имеет доступа или слабо понимает по-нерусски, но не знаю, как быть с авторскими правами.
Коротко - основная причина в невозможности "ручками" корректировать интенсивность в средних тонах при плохо сделанных формах.

С Валерием дискутировать больше не хочется... Он мне еще должен цитаты из моего опуса с моего сайтика. А должок не отдает.

Антон, а не могли бы Вы ее мне прислать?

Zakhar
29.06.2005, 10:41
Оригинал принадлежит antr
еще интересно написали в последнем Сиболде - о причинах, сдерживающих ее продвижение в газеты. Я б перевел для тех, кто не имеет доступа или слабо понимает по-нерусски, но не знаю, как быть с авторскими правами.
Коротко - основная причина в невозможности "ручками" корректировать интенсивность в средних тонах при плохо сделанных формах.

Может, хоть ссылку дадите?

Мне просто интересно: может, там описан механизм этого явления. Что так оно и есть - не спорю. Но пессимист видит наполовину пустой стакан, а оптимист - наполовину полный. Одни говорят, что ручками регулировать неудобно. Но ведь это оборотня сторона того, чем похваляется Крео: стабильность при печати и быстрая приладка. В свете всеобщего стремления к стандартизации (по крайней мере, так все говорят) это ценное свойство. А если все делать ручками, к чему тогда все эти профили печати и спектрофотометры? Для ассортимента?
Да, при ошибках цветоделения придется формы переделать. Но при наличии СТП - это дело житейское, а вот разнотон - это беда.
Так что всяк сверчок хвалит свой шесток. И это хорошо.

igors
29.06.2005, 14:16
Оригинал принадлежит Zakhar


Может, хоть ссылку дадите?

Мне просто интересно: может, там описан механизм этого явления.

Ну откуда, там механизм, Сиболд издание для менеджеров и пишут там менеджеры. Если будете читать только их да и наших (российских) тоже, то так и будете считать, что главное знание это "червячки", а 1-поколение стохастики и 2-поколение это принципиально разные вещи. На самом деле в научных статьях на эту тему Вы этих слов не найдете, тем более и та и другая стохастика генерятся единым алгоритмом, который называется BIPPCCA (BInary-Pattern-Piar-Correlation-Construction-Algorithm) авторы которого Daniel L. Lau и Gonzalo R. Arce опубликовали его в 1999 году, а работу делали на деньги Lexmark (не Creo, не Harlequin (в смысле Global Graphics)). А в 2001 году они написали книгу Modern Digital Halftoning. И ключевые слова для понимания основ это -- BlueAndGreenNoise.

Zakhar
30.06.2005, 12:13
[QUOTE]Оригинал принадлежит igors

Ну откуда, там механизм, Сиболд издание для менеджеров и пишут там менеджеры. Если будете читать только их да и наших (российских) тоже, то так и будете считать, что главное знание это "червячки", а 1-поколение стохастики и 2-поколение это принципиально разные вещи. На самом деле в научных статьях на эту тему Вы этих слов не найдете, тем более и та и другая стохастика генерятся единым алгоритмом, который называется BIPPCCA (BInary-Pattern-Piar-Correlation-Construction-Algorithm) авторы которого Daniel L. Lau и Gonzalo R. Arce опубликовали его в 1999 году, а работу делали на деньги Lexmark (не Creo, не Harlequin (в смысле Global Graphics)). А в 2001 году они написали книгу Modern Digital Halftoning. И ключевые слова для понимания основ это -- BlueAndGreenNoise.

Не совсем согласен. Между 1 и 2 поколением разница есть. Потому что ее видно. Видел я печать старой стохастикой - не то, что сейчас. Теперь речь идет о псевдостохастическом распределении.
Ну, так или иначе, есть некий эффект: плотность держится стабильнее, что менеджеры, в зависимости от места работы, считают недостатком или преимуществом.
А почему?

igors
30.06.2005, 15:20
Оригинал принадлежит Zakhar

Не совсем согласен. Между 1 и 2 поколением разница есть. Потому что ее видно. Видел я печать старой стохастикой - не то, что сейчас. Теперь речь идет о псевдостохастическом распределении.
Ну, так или иначе, есть некий эффект: плотность держится стабильнее, что менеджеры, в зависимости от места работы, считают недостатком или преимуществом.
А почему?

Ну вот Вы опять упираете на "поколения" и не хотите понять причину этой разницы, а она в функции корреляции между парами точек. А алгоритм повторюсь один. Что касается менеджеров, то бог им судья. Они часто выдают белое за черное и наоборот. Вот пример. То, что называют зернистостью в стохастике 1-го порядка ( не люблю это определение, предпочитаю BlueNoise) это проявление стохастического муара.
Да стохастика тоже муарит!
И это не порок самого метода, а некачественное изготовление самого растра, без учета явления стохастического муара. Вам же говорят, что вся стохатика BlueNoise зерниста в средних тонах, между тем Crystal Raster компании Agfa не дает этой зернистости, но свалив все в одну кучу, под названием 1-ое поколение, легко свои недостатки приписать и другим. Более того, говорят, что "червячки" помогают боротся с зернистостью, но когда смотришь на растры BlueNoise и GreenNoise этот тезис кажется очень спорным.
А дело в том, что Daniel L. Lau и Gonzalo R. Arce уделеляли большое внимание минимизации стохастического муара (см. D.L. Lau, A.M. Khan, and C.R. Arce, "Stochastic moire in color halftoning," in Proc. IS&T's Image Processing Image Quality Image Capture Systems Conf. (PICS'O1), Montreal, Quebec, Canada, Apr. 2001, pp. 96-100.).
Да и сам GreenNoise способствует минимизации этого муара (D.L. Lau, A.M. Khan, and G.R. Arce, "Minimizing stochastic moire by means of green-noise masks," J. Opt. Soc. Amer. A, vol. 19, pp. 2203-2217, Nov. 2002.). Просто мне не нравится, когда на протяжении многих лет мне везде, где только можно, говорят, что стохастика не муарит.
Я могу продолжить этот список, но мне больше нравяться алгоритмы растрирования, а главное люди, которые стоят за ними.

B.E. Bayer -- его статья "An optimum method for two-level rendition of continuous-tone pictures," Proc. of IEEE Int'l Conf. on Comm., 1973, pp. 26.11 - 26.15. заложила основу алгоритма "ordered dither", который используется всеми RIP и позволяет применять любые растры и регулярные и стохастические и гибридные и вообще растр становиться промышленным, если удалось построить соответсвующий "Dither Arrays".

T.M. Holladay -- его метод построения суперячейки использовало большинство производителей RIP.

R.W. Floyd and L.Steinberg -- авторы метода диффузионной ошибки.

R.A. Ulichney -- заложил основы BlueNoise.

R. Levien -- первый описал алгоритм диффузионной ошибки дающий GreenNoise.

T. Mitsa and K.J Parker -- первый алгоритм строящий "Dither Arrays" для BlueNoise.

D.L. Lau and G.R. Arce -- алгоритм строящий "Dither Arrays" для BlueNoise и GreenNoise.

I. Amidror -- исследовал муар, написал монографию "Феномен муара".

V.Ostromoukhov and R.D. Hersch -- их статья "Stochactic clactered-dot dithering" описывает новый подход к генерации "Dither Arrays" с использованием кривых Гильберта, триангуляции Делоне и полигонов Ворони. Это похоже основа для Specta.

И этот список можно продолжать.

Zakhar
30.06.2005, 16:38
Что касается менеджеров, то Бог им судья. Они часто выдают белое за черное и наоборот. Вот пример. То, что называют зернистостью в стохастике 1-го порядка ( не люблю это определение, предпочитаю BlueNoise) это проявление стохастического муара.

Согласен, конечно.

Да стохастика тоже муарит!
И это не порок самого метода, а некачественное изготовление самого растра, без учета явления стохастического муара... Просто мне не нравится, когда на протяжении многих лет мне везде, где только можно, говорят, что стохастика не муарит.

Это потому, что этот муар нерегулярный, вот его и не воспринимают как муар.

Но я из Ваших слов делаю вывод, что отличия между растрами разных фирм все же есть. К примеру, Specta и Staccato на вид похожи. Но Screen утверждает, что у Specta больше градационный охват. А Fuji считает, что Taffeta - это вообще чть ли не очередная революция в растрировании за счет учета восприятия и все такое прочее. Что Вы об этом думаете?

И этот список можно продолжать.

igors
30.06.2005, 17:47
Но я из Ваших слов делаю вывод, что отличия между растрами разных фирм все же есть. К примеру, Specta и Staccato на вид похожи. Но Screen утверждает, что у Specta больше градационный охват. А Fuji считает, что Taffeta - это вообще чть ли не очередная революция в растрировании за счет учета восприятия и все такое прочее. Что Вы об этом думаете?
[/B]
То, что я писал, это мои соображения, мне трудно их поддтвердить конкретными примерами типа Specta -- это алгоритм такойт-то. Не сообщают производители алгоритмов, всячески темнят. Но я думаю это все равно лучше, чем соглашаться с утверждением, что Creo заимствовала алгоритм у Harlequin'a.
Но например Specta и Staccato и на вид не похожи. Staccato явно GreenNoise и его образец можно посмотреть в статье Daniel L. Lau и Gonzalo R. Arce, "Digital Halftoning using Green-Noise Masks"она есть в интернете. Specta больше похожа на "Stochactic clactered-dot dithering" от V.Ostromoukhov'а and R.D. Hersch'а, тоже есть в интернете на сайте Виктора Остромухова с примерами "Dither Arrays" и результатами растрирования. Что касается градационного охвата, то он в первую очередь будет определяться 16-битные "Dither Arrays" или 8-битные, и это не зависит от типа растрирования, как пример приведу Sublima'у от Agfa, я её хорошо знаю. При разрешении 2400 dpi и линиатуре 340, когда на 1 растровую точку приходится 7,2 пикселя выводного устройства по одной координате и казалось бы тоновый охват всего 50 уровней на самом деле он более 4000 за счет 16 битового "Dither Arrays", на это влияет и размерность самого "Dither Arrays", чем она больше, тем лучше и тоновый охват и антимуаровые свойства.
Я не вижу принципиальных ограничений для тонового охвата ни для Specta ни для Staccato, все дело в конкретной реализации и того и другого. Все зависит от качества конкретного "Dither Arrays".
P.S. Мне жаль, что я не могу привести ни одной ссылки на русском языке. Хотя Виктор Остромухов выпускник МФТИ, да и Юрий Кузнецов публикует свои работы на английской мове в западных журналах.

igors
01.07.2005, 00:34
Хочу добавить.
Это не распространенная точка зрения, но на мой взгляд, в смысле тоновоспроизведения, между разными алгоритмами растрирования разницы нет. Если не учитывать растискивание печати, то тон в halftone (в отрастрированном имедже) определяется колличеством черных пикселей в 1-битном tiff'e на единицу площади. И не зависит ни от распределения этих пикселей, ни от формы паттерна, который они образуют. В этом смысле все алгориммы -- есть амплитудная модуляция (АМ), если под амплитудой понимать колличество пикселей, а не размер растровой точи и ее форму. Способ распределения пикселей -- кластеризация в точку растра, или дисперсное распределение (стохастика) влияет на другие своиства halftona, но не на тоновоспроизведение. И в этом смысле все алгоритмы равны, главное, как они пользуются этой возможностью (тоновоспроизведением).

Zakhar
01.07.2005, 11:00
Igors писал:

То, что я писал, это мои соображения, мне трудно их поддтвердить конкретными примерами типа Specta -- это алгоритм такойт-то. Не сообщают производители алгоритмов, всячески темнят.

Да, сейчас и телевизоры-то без схем продают.

Но я думаю это все равно лучше, чем соглашаться с утверждением, что Creo заимствовала алгоритм у Harlequin'a.

Если верить менеджерам, получается, что они его купили. И усовершенствовали. Как и все прочие.

Что касается градационного охвата, то он в первую очередь будет определяться 16-битные "Dither Arrays" или 8-битные, и это не зависит от типа растрирования, как пример приведу Sublima'у от Agfa, я её хорошо знаю. При разрешении 2400 dpi и линиатуре 340, когда на 1 растровую точку приходится 7,2 пикселя выводного устройства по одной координате и казалось бы тоновый охват всего 50 уровней на самом деле он более 4000 за счет 16 битового "Dither Arrays", на это влияет и размерность самого "Dither Arrays", чем она больше, тем лучше и тоновый охват и антимуаровые свойства.

Если я правильно понимаю, это те самые игры и близлежащими растровыми ячеками, которые стали возможны с помощью PostScript 3?

P.S. Мне жаль, что я не могу привести ни одной ссылки на русском языке. Хотя Виктор Остромухов выпускник МФТИ, да и Юрий Кузнецов публикует свои работы на английской мове в западных журналах.

Да и мне жаль. Как сказал один человек, если бы не валяли дурака с кибернетикой - прислужницей империализма, сейс бы они там учили русский...

Zakhar
01.07.2005, 11:06
Igors писал:
Это не распространенная точка зрения, но на мой взгляд, в смысле тоновоспроизведения, между разными алгоритмами растрирования разницы нет. Если не учитывать растискивание печати, то тон в halftone (в отрастрированном имедже) определяется колличеством черных пикселей в 1-битном tiff'e на единицу площади. И не зависит ни от распределения этих пикселей, ни от формы паттерна, который они образуют... Способ распределения пикселей -- кластеризация в точку растра, или дисперсное распределение (стохастика) влияет на другие своиства halftona, но не на тоновоспроизведение. И в этом смысле все алгоритмы равны...

Но ведь при сильном растискивании приходится применять компенсационные кривые. Получается, к примеру говоря, что точки, которые должны меняться с 0 до 40%, меняются только с 0 до 30%. Правда, будет выигрыш при другой плотности (в тенях). Разве это не влияет на градационный охват?

igors
01.07.2005, 14:33
Если я правильно понимаю, это те самые игры и близлежащими растровыми ячеками, которые стали возможны с помощью PostScript 3?

Да, но они были возможны всегда, чем Agfa и пользовалась в ABS, просто в PostScript 3 это стало возможным и для Standart и для AccurateScreen. A Threshold ("Dither Arrays") был и в Level 2 и чем больше растровых точек он описывает, тем эти игры с одной стороны проще, но главное в качестве растра ("Dither Arrays") не допустить вторичных повторяющихся структур в threshold'е, которые приведут к муару и это касается и стахастики и регулярного растра, и в этом смысле ABS от Agfa и Crystal Raster, были всегда образцом для подражания. И главное в Sublima'е кроме её гибридности, это наследование лучших свойств ABS. И в этом причина прохладного отношения Creo к её гибриду. И Harlequin Precision Screening генерит "Dither Arrays" похожий на ABS, но качество его уступает ABS. Я не хочу принижать достоинства Harlequin Precision Screening, у него есть свои сильные стороны, а имменно поскольку механиз генерации threshold'а встроен в RIP, то можно генирить любые линиатуры углы и формы точек, в отличии от ABS который генеритьяс в стенах Agfa'ы и имеет ограниченный набор линиатур углов и форм точки. За все приходится платить либо универсализм либо качество. PostScript 3 ввел еще один важный момент 16-битные threshold'ы (тип 16), которые позволяют делать калибровку (линиаризацию, компенсацию) на них, а не на изображении. Это позволяет избежать потери градаций тонового диапазона, при компенсации большого растискивания. Интересно бы знать как с этим у Specta и Staccato.
Вот Кувшинов пишет о мениске краски на печатном эмементе, но краска не сразу попадает не бумагу сначала на резину да с давлением, что там тоже мениск сохраняется? Между тем если принять во внимание большое растискивание стохастики и неизбежную её компенсацию, то понятно откуда экономия краски, чем больше растискивание, тем больше комненсация и больше экономия, да и перекрытие точек меньше. Но это касается всех высоколиниатурных растров в тои или иной степени.

Zakhar
04.07.2005, 10:17
PostScript 3 ввел еще один важный момент 16-битные threshold'ы (тип 16), которые позволяют делать калибровку (линиаризацию, компенсацию) на них, а не на изображении. Это позволяет избежать потери градаций тонового диапазона, при компенсации большого растискивания. Интересно бы знать как с этим у Specta и Staccato.

А все же я не совсем понял. разве компенсационные кривые не искажают градационный охват в любом случае? Делаем ли мы компенсацию ф файле или на выводк - все сводится к уменьшению размера точки и, следовательно, к уменьшению количества градаций в полутонах. Чем больше растискивание - тем больше искажение, стохастика ли это или просто высокая линиатура. Разве не так?

igors
04.07.2005, 13:29
Оригинал принадлежит Zakhar
А все же я не совсем понял. разве компенсационные кривые не искажают градационный охват в любом случае? Делаем ли мы компенсацию ф файле или на выводк - все сводится к уменьшению размера точки и, следовательно, к уменьшению количества градаций в полутонах. Чем больше растискивание - тем больше искажение, стохастика ли это или просто высокая линиатура. Разве не так?
Это, так если градаций в растре у Вас только 256, каждый, кто пользует Photoshop знает, как легко потерять градации при любом преобразовании, но если вы используете 16 бит, и действительно градаций более 256 (16 бит и количество градаций это не одно и тоже, 16 бит это возможность иметь больше градаций), то всегда можно после преобразования получить 256 градаций.
Так же и в растрах, если алгоритм использует 1 растровую точку, то Вы ограничены в выборе линиатуры и градационном охвате, даже если она 16 битная, но Threshold ("Dither Arrays") позволяет одновременно расматривать 1000 и более точек, а в случае со стохастикой или нерегулярных растров у нас и нет другой возможности (вернее она есть, но алгоритмы которые не используют "Dither Arrays" итерационные и требуют много ресурсов и времени и редко используются в коммерческих проектах).
И Threshold, в котором реализован большой градационный охват, должен иметь равномерное распределение количества градаций по своей площади и это касается и регулярны и нерегулярных растров.
Вы можете проверить мои слова, в своем RIP'e, и сравнить с Harlequin, который широко распространен.
Нарисуйте тестовый файл с 50 патчами от 1% до 50% и скомпенсируйте в RIP'е так, чтобы 50% стало 20% (30% растискивание), в Harlequine'е если использовать HPS, Вы не потеряете ни одной градации все 50 патчей ( и 100 тоже) будут иметь разный процент в интервале 1-20%, а в Вашем RIP'е?

Zakhar
04.07.2005, 14:33
Вы можете проверить мои слова, в своем RIP'e, и сравнить с Harlequin, который широко распространен.
Нарисуйте тестовый файл с 50 патчами от 1% до 50% и скомпенсируйте в RIP'е так, чтобы 50% стало 20% (30% растискивание), в Harlequine'е если использовать HPS, Вы не потеряете ни одной градации все 50 патчей ( и 100 тоже) будут иметь разный процент в интервале 1-20%, а в Вашем RIP'е? [/B][/QUOTE]

Наконец-то я понял, что Вы имеете в виду. С этим я согласен. Ступеней меньше при введении компенсационной кривой не станет.

Но ведь каждая ступень станет меньше? Это как-то отразится на результате?

igors
04.07.2005, 15:19
Оригинал принадлежит Zakhar
Наконец-то я понял, что Вы имеете в виду. С этим я согласен. Ступеней меньше при введении компенсационной кривой не станет.

Но ведь каждая ступень станет меньше? Это как-то отразится на результате?

Не станет меньше ступеней, если делать компенсацию, как я говорил, да и на растрах, которые это поддерживают (16 бит и большой threshold и равномерное распределение полутонов по нему).
Подобный механизм используют флексо-рип'ы где компенсация большого растискивания актуальная тема.
Что касается результата, то он зависит от качества растра и образцы которые я видел дают замечательный результат, ведь это зависит от восприятия человеком и наиболее заметно на длинных градиентах, где глаз сразу увидит неравномерность тона.

Zakhar
04.07.2005, 16:22
печать стохастикой может дать вполне приличный результат.
Недаром люди работают.

"Облегчение печатникам вышло в конце 90-х, когда Harlequin разработал алгоритм HDS (Halequin Dispersed Screening), в котором отдельные точки ставились не «как попало», а осмысленно группировались в элементы, называемые «червячками». Это было настолько серьезным шагом, что HDS стали называть «стохастическим растрированием второго поколения»… Новых алгоритмов до 2004 г. не появлялось… Следующий шаг в развитии стохастического растрирования был сделан в 2004 г., когда Fujifilm представила алгоритм Taffeta. «Червячки» формируются и располагаются с учетом особенностей восприятия человеком визуальной информации, что позволяет получить менее заметные структуры, чем при HDS, не ухудшая «печатных свойств»".
Дмитрий Мокин, «Бросок из феодализма в социализм», Publish 2/2005, с.52.

igors
04.07.2005, 17:22
Вы опять, читаете отечественных авторов. Обьясните в чем суть того, что «Червячки» формируются и располагаются с учетом особенностей восприятия человеком визуальной информации, что позволяет получить менее заметные структуры, чем при HDS, не ухудшая печатных свойств?
Какие особенности позволяют это сделать, а главное как?

Между тем, учет humman visual system всегда волновал исследователей Digital halftoning, первые работы которые у меня есть относятся к 1990 году. А то что, как я думаю, легло в основу Taffeta'ы опубликовано в 2000 году Jon M. Spigle and Xiao-fan Feng'ом из Sharp Laboratories of America. Inc. Но я могу и ошибаться.

Zakhar
04.07.2005, 17:32
я понимаю, что червяки эти - лишь внешнее проявление каких-то изменений в алгоритме. Но еще в начале этого форума я завел речь о том, что минимальная точка теперь - не меньше 20 мкм, т.е. не меньше чем точка 2% при 175 линиях на дюйм.
Ну а все рационализации алгоритма, о которых Вы писали, дают в итоге такой рисунок, который, конечно, самоцелью не является.

А вывод тот, что старались они не зря: печатать стохастикой стало легче.

Zakhar
04.07.2005, 17:38
Оригинал принадлежит igors
Обьясните в чем суть того, что «Червячки» формируются и располагаются с учетом особенностей восприятия человеком визуальной информации, что позволяет получить менее заметные структуры, чем при HDS, не ухудшая печатных свойств?
Какие особенности позволяют это сделать, а главное как?

Между тем, учет humman visual system всегда волновал исследователей Digital halftoning, первые работы которые у меня есть относятся к 1990 году. А то что, как я думаю, легло в основу Taffeta'ы опубликовано в 2000 году Jon M. Spigle and Xiao-fan Feng'ом из Sharp Laboratories of America. Inc. Но я могу и ошибаться. [/B]

На самом деле червяки, конечно, более заметны, чем одиночные точки. Но менее заметны, чем растровая розетка. Зато мелких точек нет и печатные свойства уличшились: как Вы и писали выше, чем-то надо жертвовать...
А вот относительно зернистости - это, видимо, признаки не "поколения", а качества каждого отдельного растра, как я понял из Ваших объяснений.
Вроде, теперь я разделил мух и котлеты?

igors
04.07.2005, 18:05
Спасибо за взвешенный подход. Мне хотелось донести что, ярлык (2 поколение), это еще не гарантия. Чтобы правильно применять, что имеем -- надо знать, как это устроено, тогда и результат будет.