Size: a a a

2019 November 15

n

ninqueistar in Localizer
📒 Multimedia localization technology: Part TWO ➧ NIMDZI ≡ Market Research and Consulting for the Language Services Industry
https://www.nimdzi.com/multimedia-localization-technology-part-two/
источник

n

ninqueistar in Localizer
Igor Afanasyev
(хотя бы в какой системе, по твоему мнению, с точки зрения перевода/сегментации дело обстояло лучше всего)
Я к сожалению не лучший советчик в данном вопросе, поскольку я не переводчик ) Уверена, тут в чате люди поопытнее есть по этому вопросу.

Свои 5 копеек я скинула по ссылке выше. Там ещё можно провалиться в первую часть обзора.
источник

IA

Igor Afanasyev in Localizer
не, ну все равно спасибо! там из скриншотов кое-что почерпнуть можно
источник

n

ninqueistar in Localizer
Это да, просто боюсь пытаться давать советы на тему "что лучше, что удобнее", когда сама-то не перевожу в этих тулах. Мы "дома" субтитры в основном в кошках делали, в совершенно обычных, даже без превью.
Что уже прошлый век.

Тут коллеги из чата наверное  смогут подсказать, у кого какие позитивные опыты есть.
источник

NL

Norma Loquendi in Localizer
прошу прощения, а надо ли прикручивать к субтитрам именно тм? терминологическая база да, не помешала бы, но вот тм как таковая - сомнительно, как правило, реплики в субтитрах достаточно уникальны и зависят от контекста
источник

NL

Norma Loquendi in Localizer
более того, даже одна и та же реплика будет иметь пять разных вариантов в разных местах
могу представить, что в каком-нибудь сериале есть catch phrase с постоянными идентичными повторами, нооо это все ещё большая натяжка
источник

IA

Igor Afanasyev in Localizer
Вопрос не в намеренном прикручивании, а в том, что когда перевод субтитров идет в CAT, то переводы как раз по умолчанию попадают в базу. У нас не перевод фильмов, а набора небольших ознакомительных видео по продукту. там могут быть и повторы и похожие фразы.
источник

IA

Igor Afanasyev in Localizer
Да и даже если отбросить вопросы ТМ в сторону, перевод субтитров везде реализован как перевод ошметков фраз, а не фраз/предложений целиком. И это пичалька.
источник

x

xabk in Localizer
Чтобы не было лапши в ТМ, можно не отправлять в нее такие неполные сегменты при переводе.

Но вот как потом получить «нормальную» ТМ — это вопрос.

Если есть четкое соответствие между предложениями в сорсе и таргете (что вполне может быть в туториалах/ознакомительных видео), то можно переподгружать сабы как цельный текст, сегментировать по предложениям и отправлять в ТМ.

В memoQ еще можно эти же цельные доки заалайнить автоматически — тут преимущество перед ТМ в том, что тогда можно будет не только увидеть сегмент при переводе, но и открыть исходный док в нужном месте и посмотреть контекст.

Натяжек многовато, конечно... Но вдруг =)

Для художественных сабов, это, конечно, не вариант — но там, мне кажется, и правда не нужна ТМ.
источник

x

xabk in Localizer
Хотя... что толку от нормальной ТМ, если потом сабы опять переводятся в режиме лапши =)))
источник

x

xabk in Localizer
Но, опять же про memoQ, можно лапшу именно алайнить — тогда увидев огрызок предложения при переводе можно будет открыть легко исходные сабы в нужном месте и посмотреть все предложение целиком и контекст.
источник

IA

Igor Afanasyev in Localizer
ну мы эту проблему склеивания/нарезки как раз решили. переводим склеенные предложения целиком, потом аккуратно опять нарезаем «как было». все делается автоматом. это решает проблему и удобства перевода/редактирования, и ТМ. но было бы интересно узнать, делает ли кто еще что-то подобное.
источник

x

xabk in Localizer
Igor Afanasyev
ну мы эту проблему склеивания/нарезки как раз решили. переводим склеенные предложения целиком, потом аккуратно опять нарезаем «как было». все делается автоматом. это решает проблему и удобства перевода/редактирования, и ТМ. но было бы интересно узнать, делает ли кто еще что-то подобное.
О, круто. Режете аккуратно по длине? Оставляете целиком логические кусочки текста?
источник

MG

Mike Gorbunov in Localizer
Igor Afanasyev
ну мы эту проблему склеивания/нарезки как раз решили. переводим склеенные предложения целиком, потом аккуратно опять нарезаем «как было». все делается автоматом. это решает проблему и удобства перевода/редактирования, и ТМ. но было бы интересно узнать, делает ли кто еще что-то подобное.
я чет не раздуплюсь, как вы нарезаете те языки, которые вам не понятны. структура предложения разная же везде
источник

x

xabk in Localizer
Или там просто маркеры для нарезки есть, которые переводчики расставляют? :)
источник

IA

Igor Afanasyev in Localizer
мы поступили красиво (т.е. тупо) :) — вставляем двойной перенос строки там, где надо обратно нарезать
источник

MG

Mike Gorbunov in Localizer
Igor Afanasyev
мы поступили красиво (т.е. тупо) :) — вставляем двойной перенос строки там, где надо обратно нарезать
и переводчики, соответственно, видят эти маркеры?
источник

x

xabk in Localizer
Да ну это самый хороший вариант. Чем городить нейросети всякие...
источник

IA

Igor Afanasyev in Localizer
угу. и переводчики их оставляют. но сегмент, главное, один. ровно предложение.
источник

MG

Mike Gorbunov in Localizer
мы делаем то же самое, но для гуя, а не ТМ. я всегда считал это колхозом и искал что-то более изящное
источник