LessigArchitecture

toc =Subtitling Lawrence Lessig's "The Architecture of Access to Scientific Knowledge"= See [|universalsubtitles.org/en/videos/jD5TB2eebD5d] media type="custom" key="10254131" (This is a section of the unpublished blog draft mentioned in A wiki about subtitling for accessibility, education and creativity on the home page)

Roberta Ranzani:
Questo è stato il mio primo impatto con un video dai contenuti importanti e di una certa durata (50 minuti). Ho potuto basarmi sulla trascrizione del testo già pronta e il timing della lingua originale già sincronizzati, opera di CA, per cui ho dovuto solo tradurre in italiano riga per riga, come la interfaccia di Universal Subs invita a fare. Ho più di recente notato che alcune funzioni sono state migliorate rispetto all'epoca di questa sottotitolazione, per esempio se l'utente resta fermo per più di qualche minuto il software salva di sua iniziativa il lavoro svolto e appare un messaggio di conferma, mentre fino a un paio di mesi fa il salvataggio automatico non era ben chiaro se intervenisse o meno. Questo può essere utile se si fa una pausa per qualsiasi motivo, oppure si consultano dizionari, o ti crasha il browser. Rimane un problema di design, a mio avviso la finestra in cui immettere il testo è senza motivo troppo piccola, poco usabile. Ma ricordiamo che il programma è nato da poco e si trova ancora in fase beta. Più impegnativo è stato documentarsi su temi che conoscevo ma non così approfonditamente da poterlo fare a cuor leggero. Essendo temi importanti, si avverte oltre all'entusiasmo del diffondere anche una certa responsabilità nel far passare il messaggio con la maggiore accuratezza possibile. Copyright, storia del copyright, accessibilità e i suoi limiti, licenze libere, sono tante le tematiche toccate da Lessig in 50 minuti, che hanno richiesto ricerche e anche una consulenza a un docente di Diritto dell'Informazione e della Comunicazione, Nicola Lucchi dell'Università di Ferrara per avere un parere tecnico sul lato legale della traduzione. Fortunatamente Lessig è anche un abile comunicatore, con un suo stile apparentemente "leggero" (nel senso che intendeva [|Italo Calvino]) nelle presentazioni per cui è famoso, e utilizza un lessico semplice e immediato, a tutto vantaggio dei suoi destinatari, per cui tradurlo e renderlo in Italiano è stata anche un'esperienza divertente. I numerosi esempi, i rimandi a un aneddoto, a una citazione, come la storia del "non ci resterà una sola corda vocale" di John Philip Souza, significativi della resistenza che hanno incontrato tutte le innovazioni tecnologiche nella storia - fin dall'avvento della prima tecnologia utilizzata dall'uomo, la scrittura - sono notevoli espedienti retorici funzionali ad interessare l'interlocutore ad argomenti apparentemente pesanti. Per quanto mi riguarda poi il fatto di dovermi documentare per evitare imprecisioni o distorsioni del discorso di altri è stata anche una forma di learning by doing: se avessi semplicemente visto e fruito passivamente un documentario in televisione probabilmente mi sarei addentrata meno nell'argomento. media type="custom" key="10234965" Poi c'è un altro aspetto che desidero riportare, emerso durante la stesura della sottotitolazione italiana. Universal Subs consente di introdurre la traduzione automatica di Google Translate con un semplice click e anche di completare automaticamente sottotitoli già iniziati (anche da qualcun altro). Ebbene, una volta annotate una ventina di righe, ho voluto provare la funzione di completamento automatico (che riempie diligentemente tutti i campi vuoti) ma non si è trattato di una scelta felice - infatti poi ho dovuto ugualmente correggere riga per riga e in pratica riscrivere parola per parola mi ha portato via più tempo che facendo il lavoro da zero. Ora, mi si potrebbe accusare di essere una reazionaria alla stregua del signor Souza e pur riconoscendo che linguistica computazionale e Natural Language Processing si configurano come scienze sempre più precise oltretutto disponibili in applicazioni ormai alla portata di chiunque, ritengo che la traduzione automatica di Google non sia ancora in grado di rendere al meglio un testo. Troppo letterale, forse perché si basa sulla statistica, e incapace di cogliere sfumature; ho il sospetto che ciò valga in particolar modo dall'inglese all'italiano Probabilmente entro un paio d'anni molti difetti saranno superati, ma per il momento andrà bene forse per cogliere il senso generale di qualcosa, non per tradurre efficacemente un testo o un sito. Il punto a mio parere è che non ha molto senso la sottotitolazione automatica in un contesto sociale. Tanto varrebbe che fosse il software stesso della piattaforma usata a fornire subs in tutte le principali lingue fin dal momento della pubblicazione del video. (nota: e ci sarebbe da discutere sul concetto di lingua importante o meno) Quanto all'aspetto prettamente "sociale", intraprendere un lavoro più o meno impegnativo che porta pur via tempo e risorse (cognitive e anche emotive in un certo senso) sapendo che l'unica remunerazione sarà che ne possa fruire qualcun altro, è possibile solo se è presente una forte motivazione di interesse nell'argomento specifico, quale che sia, e di fede nella condivisione dei saperi. Certo anche constatare che altri volontari stanno facendo lo stesso lavoro nella propria lingua madre - //The Architecture of Access to Scientific knowledge// è presente in 7 lingue differenti (compreso un tentativo in Esperanto) tutte riconducenti all'originale trascritto da CA - quasi in contemporanea, è esso stesso un elemento di gratificazione in questo peculiare tipo di [|crowdsourcing], e, suppongo, in particolar modo per il primo trascrittore del testo originale. English version

Claude Almansi:
For me too, this was the longest video I had subtitled, and in particular transcribed. Yet it took me far less time than [|Missing in Pakistan], the longest - 24 minutes - I had done previously, back in 2007. Several factors explain this: I had originally captioned Missing in Pakistan with [|MAGpie], a desktop software for which my computer was not quite powerful enough, so the video player kept freezing; the audio of Missing in Pakistan was more difficult to understand than Lessig's keynote; and then, simply, the more you caption the faster you get at it. You are right about the **gratification of seeing others joining** in a social subtitling project. The "collaborative" part seems to work particularly well for the translation of existing subtitles on the [|Universal Subtitles] platform. I finished the English ones for Lessig's conference one evening, and the next morning I found a full set of Japanese subtitles, and other languages followed fast. In fact, Universal Subtitles is a project of the [|Participatory Culture Foundation], a featured project of [|Mozilla Drumbeat], and is also used by Creative Commons International for its videos, so it might be easier to attract volunteer translators around a video of a conference by Lessig about access to knowledge on Universal Subtitles than it would be on another platform. However, I am not sure attracting volunteer translators would work so well with a video of Sarah Palin or of Britney Spears. Limits to collaboration: In your description of the **problems of the automatic translation option** offered by Universal Subtitles, you write: "You might just as well have the software of the hosting platform offer subtitles in all main languages as soon as the video is published". Actually, YouTube already offers users the possibility to view automatically made captions for videos in English, media type="custom" key="10235011" and then to have them automatically translated in 40+ other languages: media type="custom" key="10235031" Of course, this multiplies the imprecisions of automatic captioning by those of automatic translation, but it is already a start. Moreover, if one set of decent, humanly-made captions is added to a YouTube video, users can have that set automatically translated, and this vindicates your point against **publishing** such automatic translations. However, there may be interesting exceptions. For instance, in the [|CCProse YouTube channel], which is a stupendous resource for English learners, the videos are made of: Example: [|The Declaration of Independence] (the link is to the video viewed in the [|YourTube] accessible player) At first, I found this baffling: in fact - as can be seen from the illustration above - from the little CC button that appears at the bottom of the player once the video has started, users can also request an automatic translation of existing subtitles in almost all these languages. So why add these automatic translations too? The explanation is given in the [|Closed Captioning page] of the [|website] of CCCartoons, the sister channel of [|CCProse]: > ... YouTube uses the Closed Captions to create an interactive transcript. It is awesome. It allows you to jump to any point in the video. For videos containing Closed Captions in more than one language, you can display the Closed captions in one language, and the interactive transcript in another. media type="custom" key="10235279" In effect, if you only offer subtitles in one language, though users can have them automatically translated, you only get one transcript in the language of the offered subtitles. As to the **arguability of the concept of a main language**: true, 46 languages is only a fraction of the thousands of existing languages (the [|Ethnologue language name index], based on Lewis, M. Paul (ed.), 2009. //Ethnologue: Languages of the World//, Sixteenth edition. Dallas, Tex.: SIL International, lists "7413 primary names only"). But it is a good start nonetheless. =Short URL= Shorter URL for this page: http://bit.ly/LessigArchitecture = =
 * Making the first subtitles in the original language tends to remain solitary work, whatever the platform: transcribing the audio and synchronizing the transcribed text - whether you do it as you go, as with DotSUB, or in a second stage, as with Universal Subtitles - is time-consuming and a bit tedious. Moreover, people might be afraid of bungling what they might perceive as more complicated than it actually is.
 * Even at the translation stage, in which more people are ready to collaborate, exchanges about the work tend to be rare, even though subtitling platforms usually have a "Comment" feature. In my experience, these exchanges only happened with Roberta (hence this post) and with [|Andreas Formiconi]. And the reason we three did might well be that Roberta and I started collaborating in subtitling via Andreas' [|Spring 2011 course].
 * screenshots of the texts of literary works in the public domain, from their [|Project Gutenberg] version
 * the audio of their reading by volunteers of the [|librivox.org] project
 * added subtitles in closed captioning in the original English, again, from their [|Project Gutenberg] version
 * added subtitles in closed captioning, which have been automatically translated in 50 languages.