Skip to content

Commit 723359e

Browse files
committed
Arreglar rewrap en library/tokenize.po
1 parent c3f268d commit 723359e

File tree

1 file changed

+13
-15
lines changed

1 file changed

+13
-15
lines changed

library/tokenize.po

Lines changed: 13 additions & 15 deletions
Original file line numberDiff line numberDiff line change
@@ -6,13 +6,12 @@
66
# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
77
# get the list of volunteers
88
#
9-
#, fuzzy
109
msgid ""
1110
msgstr ""
1211
"Project-Id-Version: Python 3.8\n"
1312
"Report-Msgid-Bugs-To: \n"
1413
"POT-Creation-Date: 2020-05-05 12:54+0200\n"
15-
"PO-Revision-Date: 2020-07-25 19:08+0200\n"
14+
"PO-Revision-Date: 2020-07-25 21:23+0200\n"
1615
"Language-Team: python-doc-es\n"
1716
"MIME-Version: 1.0\n"
1817
"Content-Type: text/plain; charset=UTF-8\n"
@@ -93,8 +92,8 @@ msgstr ""
9392
"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
9493
"acaba en el código, y la línea en la que se encontró el token. La línea "
9594
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96-
"retorna como una :term:`named tuple` con los campos: ``type string start "
97-
"end line``."
95+
"retorna como una :term:`named tuple` con los campos: ``type string start end "
96+
"line``."
9897

9998
#: ../Doc/library/tokenize.rst:46
10099
msgid ""
@@ -105,8 +104,8 @@ msgid ""
105104
msgstr ""
106105
"La :term:`named tuple` retorna tiene una propiedad adicional llamada "
107106
"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
108-
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el "
109-
"valor del campo ``type`` de la tupla con su respectivo nombre."
107+
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el valor "
108+
"del campo ``type`` de la tupla con su respectivo nombre."
110109

111110
#: ../Doc/library/tokenize.rst:51
112111
msgid "Added support for named tuples."
@@ -196,8 +195,8 @@ msgid ""
196195
"the first token sequence output by :func:`.tokenize`. If there is no "
197196
"encoding token in the input, it returns a str instead."
198197
msgstr ""
199-
"Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que "
200-
"es el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
198+
"Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que es "
199+
"el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
201200
"hay un token de codificación en la entrada, retorna una cadena."
202201

203202
#: ../Doc/library/tokenize.rst:96
@@ -315,8 +314,8 @@ msgid ""
315314
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
316315
"Otherwise, tokenization is performed on stdin."
317316
msgstr ""
318-
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens "
319-
"por la salida estándar. En otro caso, se convierte la entrada estándar."
317+
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens por "
318+
"la salida estándar. En otro caso, se convierte la entrada estándar."
320319

321320
#: ../Doc/library/tokenize.rst:177
322321
msgid "Examples"
@@ -341,9 +340,8 @@ msgid ""
341340
"token (if any)"
342341
msgstr ""
343342
"se convertirá en la salida siguiente, donde la primera columna es el rango "
344-
"de coordenadas línea/columna donde se encuentra el token, la segunda "
345-
"columna es el nombre del token, y la última columna es el valor del "
346-
"token, si lo hay"
343+
"de coordenadas línea/columna donde se encuentra el token, la segunda columna "
344+
"es el nombre del token, y la última columna es el valor del token, si lo hay"
347345

348346
#: ../Doc/library/tokenize.rst:256
349347
msgid ""
@@ -357,8 +355,8 @@ msgid ""
357355
"Example of tokenizing a file programmatically, reading unicode strings "
358356
"instead of bytes with :func:`generate_tokens`::"
359357
msgstr ""
360-
"Ejemplo de tokenización de un fichero programáticamente, leyendo "
361-
"cadenas unicode en lugar de *bytes* con :func:`generate_tokens`::"
358+
"Ejemplo de tokenización de un fichero programáticamente, leyendo cadenas "
359+
"unicode en lugar de *bytes* con :func:`generate_tokens`::"
362360

363361
#: ../Doc/library/tokenize.rst:292
364362
msgid "Or reading bytes directly with :func:`.tokenize`::"

0 commit comments

Comments
 (0)
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy