Скачать Python
Скачивать python будем с официального сайта. Кстати, не рекомендую скачивать интерпретатор python с других сайтов или через торрент, в них могут быть вирусы. Программа бесплатная. Заходим на https://python.org/downloads/windows/, выбираем «latest python release» и python 3.
На python 2 могут не работать некоторые мои примеры программ.
На момент написания статьи это python 3.4.1.
Появляется страница с описанием данной версии Python (на английском). Если интересно — можете почитать. Затем крутим в самый низ страницы, а затем открываем «download page».
Вы увидите список файлов, которые можно загрузить. Нам нужен Windows x86 MSI installer (если система 32-х битная), или Windows x86-64 MSI installer (если система 64-х битная). Больше из файлов нам ничего не нужно.
Ждём, пока python загрузится. Затем открываем загрузившийся файл. Файл подписан Python Software Foundation, значит, все в порядке. Пользуясь случаем, напоминаю, что не стоит открывать незнакомые exe файлы.
Устанавливаем для всех пользователей или только для одного (на ваше усмотрение).
Выбираем папку для установки. Я оставляю папку по умолчанию. Вы можете выбрать любую папку на своем диске.
Выбираем компоненты, которые будут установлены. Оставьте компоненты по умолчанию, если не уверены.
Ждем установки python.
Finish. Поздравляю, вы установили Python! Также в установщик python для windows встроена среда разработки IDLE. Прямо сейчас вы можете написать свою первую программу!
Установка Python на linux системы (ubuntu, linux mint и другие)
Откройте консоль (обычно ctrl+alt+t). Введите в консоли:
python3
Скорее всего, вас любезно поприветствует python 3:
Если это так, то можно вас поздравить: у вас уже стоит python 3. В противном случае нужно установить пакет *python3*:
sudo apt-get install python3
Либо через mintinstaller / synaptic / центр приложений ubuntu / что вам больше нравится.
В python для linux нет предустановленной среды IDLE. Если хотите, её можно установить отдельно. Пакет называется *idle3* (в более ранних версиях он может называться python3-idle).
Однако, её установка не является обязательной. Вы можете писать в своём любимом текстовом редакторе (gedit, vim, emacs. ) и запускать программы через консоль:
python3 path_to_file.py
Теперь вы можете написать первую программу (хотите, пишите в IDLE, хотите — в своём любимом текстовом редакторе).
Для вставки кода на Python в комментарий заключайте его в теги
- Модуль csv - чтение и запись CSV файлов
- Создаём сайт на Django, используя хорошие практики. Часть 1: создаём проект
- Онлайн-обучение Python: сравнение популярных программ
- Книги о Python
- GUI (графический интерфейс пользователя)
- Курсы Python
- Модули
- Новости мира Python
- NumPy
- Обработка данных
- Основы программирования
- Примеры программ
- Типы данных в Python
- Видео
- Python для Web
- Работа для Python-программистов
- Сделай свой вклад в развитие сайта!
- Самоучитель Python
- Карта сайта
- Отзывы на книги по Python
- Реклама на сайте
ЯП с нуля до прототипа (Лексер) #1
Привет, первая статья на Хабре. Поправляйте если что-то не так.
Предисловие
Идея написать свой ЯП появилась достаточно давно, но не хватало мотивации приступить к изучению. Отталкивало то, что крупные компании годами разрабатывают свои языки, чтобы они были работоспособны, а тут я хочу обойти их всех разом и создать удобный для себя ЯП. Но с чего--то всё таки нужно начинать. Хотя бы калькулятор уже бы был победой. Далее я буду называть свой язык программирования - Lize(читай "Лайз").
Внимание: Я ничего не знаю про то как делать ЯП, я буду изучать всё и одновременно писать статью
Что делаем?
Это будет транспилятор из Lize в Typescript, написанный на . Typescript. Что касается будущего синтаксиса, то пока это опустим, вернёмся к этому когда будет достаточно знаний. В дополнение я буду публиковать весь код на github.
Первое же гугление дало мне знание о таких вещах как Лексер, Парсер, AST (Абстрактное синтаксическое дерево). Ничего не знаю про два последних, забудем пока про них и начнём с первого.
Что такое лексер?
Лексер - он же сканер, он же токенизатор. Первый этап преобразования простого текста который мы считаем за программу на нашем языке (Lize) в программу которую поймёт компьютер (но в нашем случае мы обойдёмся транспиляцией/переводом из нашего ЯП в TypeScript)
В моей голове это просто такая вещь которая превращает последовательность символов в последовательность подстрок имеющих некоторый id и значение.
Мы будем представлять его так: [имя: значение] или так: (строка:столбец;ширина) [имя: значение] .
Стоит уточнить, что символ звёздочки или слэш ни в коем случае не должен считаться знаком умножения или деления. Этап токенизации должен просто разбить исходник на токены, а потом на этапе парсинга определять, это умножение или разыменование.
// ❌ Не правильно tokenize(`4 * 3 / 2`) // [number: 4], [multiply], [number: 3], [divide], [number: 2] // ✅ правильно tokenize(`4 * 3 / 2`) // [number: 4], [asterisk], [number: 3], [slash], [number: 2]
Я люблю писать утилиты и абстракции, чтобы всё усложнить упростить и сделать код элегантнее. Так что осторожно, некоторый код может показаться бессмысленным или страшным, но мне от него на душе легче.
Обработка ошибок
Мы же любим когда наш любимый ЯП тыкает нам носом туда где мы облажались. Давайте забудем про проблему ошибок раз и навсегда. Функция error это магия JS и TS, позволяет создавать ошибки в одну строчку. Я опустил реализацию, дабы не нагружать статью, весь код вы сможете посмотреть на github.
// Примеры ошибок export namespace LexerErrors < export const SampleError = error('SampleError', 'Sample error message') export const ErrorWithArgument = error('ErrorWithArgument', 'Argument: <>') export const UnexpectedCharacter = error<[line: number, column: number]>('UnexpectedCharacter', 'Unexpected character at <>:<>') > // Пример throw new SampleError throw new ErrorWithArgument('hey') throw new UnexpectedCharacter(1, 2)
Реализация лексера
Для начала разберёмся со структурой токена как объекта. У него будет имя/идентификатор по которому мы сможем его опознать, значение токена, если это например число или строка и его положение в исходном коде.
Создадим класс Span , У него будет три свойства, это исходная программа, начало токена и его конец, метод width , чтобы быстро узнать длину токена. Не будем тянуть и реализуем возможность получить номер строки и столбца
export class Span < constructor( private readonly src: string, readonly start: number, readonly end: number, ) <>get width() < return this.end - this.start >get line() < return (this.src.slice(0, this.start).match(/\n/g) || '').length >get column() < const lines = this.src.slice(0, this.start).split('\n') if(lines.length === 1) return this.start return this.start - lines.slice(0, lines.length - 1).join('\n').length - 1 >>
Ну а теперь сам Token . В качестве идентификатора токена будет выступать сам класс, а точнее его имя. Например, чтобы проверить что некоторый токен это символ звёздочки, просто используйте token instanceof Asterisk
export class Token < constructor(readonly value: string, readonly span: Span) <>> // Тип конструктора пригодится позже export type TokenKind = typeof Token
Добавим статический метод tokenize , который мы будем переопределять для каждого токена. Он будет искать токены, принимая строку исходного кода и возвращая длину токена. Если возвращённое число -1, будем считать, что токен найти не удалось. Пока не думайте про that , это просто ссылка на лексер. Мы не предполагаем, что Token будет инстансирован напрямую без наследования, поэтому кинем ошибку
static tokenize(that: any, src: string): number < throw new AbstractToken // Abstract token can't be used >
Искать токены мы будем при помощи регулярных выражений, это невероятно просто и красиво. А чтобы проще и быстрей создавать виды токенов я решил написать билдер. Это может немного сбить с толку, но по сути это функция которая за нас реализует каждый класс токена.
// Пачка типов. T - это тип ссылки на лексер. type GroupString = string | RegExp type GroupValue = GroupString | ((that: T) => GroupString) type ConditionFn = (that: T) => boolean type Subscriber = (that: T, result: number) => void interface Condition < not?: boolean fn: ConditionFn> interface Group < value: GroupValuemain?: boolean escape?: boolean > // "Макрос" для реализации видов токенов export const kind = (name: string) => < const extends Token < // Группы токенизации, по простому просто части одного // регулярного выражения private static readonly _groups: Group[] = [] // Условия при соблюдении которых токен будет засчитываться private static readonly _conditions: Condition[] = [] // Подписчики. Они будут вызваны если токен будет найден private static readonly _subscribers: Subscriber[] = [] // Regex группа может быть вычислена // resolveGroup вернёт вычисленную группу, // если её можно вычислить private static resolveGroup(that: T, group: GroupValue) < return typeof group === 'function' ? group(that) : group >// Добавляем группу(ы) static group(. parts: GroupValue[]): typeof Class < Class._groups.push(. parts.map(value =>(< value >))) return Class > // Устанавливаем главную группу, // ту, длину которой засчитает лексер static main(part: GroupValue): typeof Class < Class._groups.push(< value: part, main: true >) return Class > // Добавляем разрешающее условие(я) static allow(. conditions: ConditionFn[]): typeof Class < Class._conditions.push(. conditions.map(fn =>(< fn >))) return Class > // Добавляем запрещающее условие(я) static disallow(. conditions: ConditionFn[]): typeof Class < Class._conditions.push(. conditions.map(fn =>(< fn, not: true >))) return Class > // Устанавливаем группу для последовательности символов static plain(text: GroupValue): typeof Class < Class._groups.push(< value: text, escape: true, main: true >) return Class > // Добавляем подписчика static on(. subscriber: Subscriber[]): typeof Class < Class._subscribers.push(. subscriber) return Class >// Оповещаем подписчиков об успешной токенизации private static emit(that: T, value: number) < Class._subscribers.forEach(s =>s(that, value)) > // Компилируем все условия и получаем полное регулярное выражение // при соблюдении всех условий private static compile(that: T, doMatch = true): RegExp | undefined < // Собираем результаты условий for (const condition of this._conditions) < // Вычисляем результат let result = condition.fn(that) // Меняем на противоположный, если добавляли через // disallow if (condition.not) result = !result if (!result) < doMatch = false return >> // Формируем регулярное выражение return RegExp(`^$ < // Вычисляем группу const group = Class.resolveGroup(that, g.value) // Проверяем разные кейсы и в зависимости от этого // устанавливаем конечное значение группы const value = typeof group === 'object' ? group.source : g.escape ? escapeRegex(group) : group // оборачиваем группу return `($)` >).join('')>`) > // Прибавляем 1, поскольку метод match возвращает // всё совпадение, а потом группы. // И смотрите как удобно, если главной группы нет, // то берём всё, тк -1 + 1 = 0, а 0 это всё совпадение private static getMainIndex() < return Class._groups.findIndex(g =>g.main === true) + 1 > // Реализуем главный метод токенизации static tokenize(that: T, src: string) < // Компилируем выражение, если его нет, то пропускаем токен const regex = Class.compile(that) if (!regex) return -1 // матчим строку const matches = src.match(regex) if (!matches) return -1 // Берём главную группу const result: number = matches[Class.getMainIndex()].length // Оповещаем подписчиков об успешной находке if (result >= 0) Class.emit(that, result) // Возвращаем длину токена return result > >, name) return Class >
Если вы всё таки любитель читать код, что не скажешь по комментариям, то могу рассказать, что такое that . С помощью that я ссылкаюсь на текущий лексер, таким образом все условия и подписки будут работать независимо от лексера, если вы читали статью раньше, то that не было и из-за этого каждый новый экземпляр лексера ломал токены добавляя повторяющиеся правила.
Теперь можем приступить к созданию видов токенов. Начнём с чего-то простого. Токенизируем простое числовое выражение.
Вот какие виды токенов мы может тут найти: Число, Открывающая Круглая Скобка, Закрывающая Круглая Скобка, Звёздочка, Слэш и Пробел(да, мы его тоже считаем)
// scripts/1.ts const src = `(2 * 3) / 6` const Number = kind('Number').main(/\d+/) const Asterisk = kind('Asterisk').plain('*') const Slash = kind('Slash').plain('/') const OpenParen = kind('OpenParen').plain('(') const CloseParen = kind('CloseParen').plain(')') const Whitespace = kind('Whitespace').main(/[^\S\r\n]+/)
Приступим к классу лексера. Я также буду использовать подход с использованием итератора, чтобы мы могли контролировать процесс.
export class Lexer < // Длина проанализированного текста private index = 0 constructor( // Берём на вход исходник private src: string, // Виды(kinds) токенов private readonly kinds: TokenKind[], ) <>next() < /* . */>// Реализуем итератор [Symbol.iterator]() < return < next: () => < return < done: this.done, value: this.next() >>, > > // Вернуть true если всё токенизировали get done() < return this.index === this.src.length >>
Реализуем метод next . Он будет перебирать виды токенов и подставлять в них строку исходника, если метод tokenize каждого вида токена не вернёт число больше -1, то кидаем ошибку: "Неожиданный токен" иначе возвращаем экземпляр токена.
next() < // Выполняем проход по всем видам токенов for (const kind of this.kinds) < // Токенизируем исходную строку начиная с this.index // . Отдаёт тот самый that const result = kind.tokenize?.(this, this.src.slice(this.index)) ?? -1\ // Если не нашли, то идём дальше if (result === -1) continue // возвращаем экземпляр токена и обновляем this.index return new kind(this.src.slice(this.index, this.index + result), new Span(this.src, this.index, this.index += result)) >// Если ни один из токенов не дал о себе знать, // то мы наткнулись на неизвестную или неверную часть программы throw new UnexpectedToken >
Добавим функцию для сбора всех токенов.
export const tokenize = (lexer: Lexer) =>
Теперь можем упаковать токены в нужном порядке и посмотреть на результат
const kinds = [Number, Asterisk, Slash, OpenParen, CloseParen, Whitespace] const result = tokenize(new Lexer(src, kinds)) // (0:0;1) [OpenParen: (] // (0:1;1) [Number: 2] // (0:2;1) [Whitespace: •] // (0:3;1) [Asterisk: *] // (0:4;1) [Whitespace: •] // (0:5;1) [Number: 3] // (0:6;1) [CloseParen: )] // (0:7;1) [Whitespace: •] // (0:8;1) [Slash: /] // (0:9;1) [Whitespace: •] // (0:10;1) [Number: 6]
Производительность
console.time в среднем демонстрирует результат 0.3ms для выражения выше, однако первый старт занимает около 2.75ms. Не знаю хорошо это или не очень; в будущем попробуем тоже самое на rust и сравним производительность.
Заключение
Теперь мы научились преобразовывать символы в токены. В следующей части как только я разберусь мы приступим к созданию парсера.
Напоминаю также, что вы можете поиграться и самостоятельно изучить код клонировав репозиторий из github со всем кодом который был тут предоставлен. Я понимаю, что лексер можно было бы сделать в пару строк, но это вы и так найдёте в гугле, я же стремлюсь сделать проект максимально расширяемым, я понимаю, что не весь код может быть понятен тут, поэтому оставляю ссылку на репозиторий, вы также можете задать вопрос в комментариях.
Бонус
Токенизируем шаблонную строку
const src = "`I'm $!`"
// Ещё не забыли про that. Так вот зачем он нужен // Обычный текст, ищем только если в состоянии шаблонной строки const Plain = kind('Plain').main(/.+?/).group(/\$<|>|`/).allow(that => that.template) const Asterisk = kind('Asterisk').plain('*') const Number = kind('Number').main(/\d+/) const Whitespace = kind('Whitespace').main(/[^\S\r\n]+/) // Символ шаблонной строки (`) если находим, то переключаем состояние const Backtick = kind('Backtick').plain('`').on(that => that.template = !that.template) // Начало шаблонного выражения, ищем если в состоянии шаблонной строки, // если находим, ВЫключаем режим шаблонной строки const OpenDollarBrace = kind('OpenDollarBrace').main(/\$).allow(that => that.template).on(that => that.template = false) // Конец шаблонного выражения, ищем если НЕ в состоянии шаблонной строки // если находим, Включаем режим шаблонной строки const CloseBrace = kind('CloseBrace').main(/>/).disallow(that => that.template).on(that => that.template = true)
// Расшиярем лексер, чтобы хранить собственное состояние class CustomLexer extends Lexer < template = false constructor(src: string) < // Тот случай когда порядок важен // Plain берёт любые символы и если он будет в начале, // то просто "съест" начало шаблонного выражения super(src, [Backtick, OpenDollarBrace, CloseBrace, Asterisk, Number, Whitespace, Plain]) >>
const result = tokenize(new CustomLexer(src)) // (0:0;1) [Backtick: `] // (0:1;4) [Plain: I'm•] // (0:5;2) [OpenDollarBrace: $] // (0:13;1) [Plain: !] // (0:14;1) [Backtick: `]
А чё там с рекурсией?
const recursive = "`Hey $`>`"
Я прям потел когда смотрел на такую строку, но лексер сделал своё дело
(0:0;1) [Backtick: `] (0:1;4) [Plain: Hey•] (0:5;2) [OpenDollarBrace: $] (0:30;1) [Backtick: `] (0:31;1) [CloseBrace: >] (0:32;1) [Backtick: `]
Спасибо что прочитали ВСЁ, ПРЯМ ВСЁ. Огромное спасибо. Буду очень рад оценке и комментарию.
- javascript
- typescript
- язык программирования с нуля
- lexer
- лексер
Как скачать и установить Python 3 на Windows 10/7
Windows не содержит Python в списке предустановленных программ. Вы можете скачать его и установить дополнительно. Во время первой установки Python 3 на Windows могут возникнуть трудности, поэтому мы создали этот туториал. Просто следуйте инструкции и у вас все получится.
Какую версию Python скачать — 2 или 3?
Больше 10 лет назад вышла новая версия python, которая разделила сообщество на 2 части. Сразу это вызывало много споров, новичкам приходилось выбирать: python 2 или python 3. Сегодня большая часть обучается третей версии. На этой версии мы и покажем как установить язык программирования python на Windows.
На этой странице вы можете скачать python для Windows.
В вверху разработчики предлагают выбрать версию.
Нажмите на ссылку которая начинается словами “Последний выпуск Python 3…” и попадете на страницу последней версии Python 3. Сейчас это 3.7.2.
Если вы не планируете работать с проектом, который написан на Python 2, а таких довольно много. Скачайте python 2+. Для веб разработки, анализа данных и многих других целей лучшим вариантом будет python 3 версии.
Внизу страницы версии ссылки на скачивание установщиков. Есть возможность скачать python под 64-битную и 32-битную Windows.
Вне зависимости от версии и страны, python на английском языке. Вы не сможете скачать python на русском с официального сайта (и с любого другого).
Установка python 3 на Windows
Скачайте и запустите установщик Python 3, он называется “python-3.****.exe”.
Если на компьютере уже установлена python 2, нет необходимости удалять его. На установку Python 3 она не повлияет.
На первом экране отметьте пункт “Add Python 3.7 to PATH” и нажмите “Install Now”.
После установки появится возможность отключить ограничение длины MAX_PATH . В системах Linux этих ограничений нет. Проигнорировав этот пункт, вы можете столкнуться с проблемой совместимости в будущем. Код созданный на Linux не запустится на Windows.
Советуем отключить эту опцию. Если вы точно уверены, что не столкнетесь с проблемой совместимости, нажмите “Close”
Как проверить уставился ли python
Самый быстрый и простой способ узнать, есть ли интерпретатор python на компьютере — через командную строку.
- Запустите cmd.exe через диспетчер задач или поиск.
- Введите python
В результате командная строка выведет версию python, которая установлена в системе.
Если версия python 2 или вы получили ошибку:
"python" не является внутренней или внешней командой, исполняемой программой или пакетным файлом.
Следуйте инструкциям ниже. Это легко исправить.
Как добавить python в переменную PATH (ADD to PATH)
Откройте окно “Система” с помощью поиска.
В окне “Система”, нажмите “Дополнительные параметры системы”. Откроется “Свойства системы”. Во вкладке “Дополнительно”, нажимайте “Переменные среды” как на фото ниже.
В открывшемся окне выберите Path -> “Изменить”. Откроется новое окно, куда вы должны добавить путь к интерпретатору python.
Путь у каждого свой, похож на C:\Users\UserName\AppData\Local\Programs\Python\Python37\ . Где Python37 — папка с python.
Нажмите “Создать” и добавьте 2 пути. К папке python и python\Scripts\
Как создать отдельную команду для python 2 и python 3
Чтобы использовать обе версии python, измените python.exe на python2.exe , в папке с python 2. А в папке с python 3 , python.exe на python3.exe .
Теперь проверьте обе версии:
>python2 -V Python 2.7.14 >python3 -V Python 3.7.2
После этих не сложных действий, python установлен на вашем Windows и готов к работе в любом текстовом редакторе.
- ТЕГИ
- для начинающих
- Скачать и установить Python
Как написать лексер на Python: полезные советы и шаги
Это простой пример лексера, который распознает числа, знаки плюс, минус, умножения и деления. Вы можете добавить свои собственные токены и правила в соответствии с вашими потребностями.
Детальный ответ
Как написать лексер на Python
Лексер (или токенизатор) - это важная часть компилятора или интерпретатора, ответственная за разделение входного текста на множество лексем или токенов. В этой статье мы рассмотрим, как написать простой лексер на языке Python.
1. Определение лексем
Первый шаг в написании лексера - определение типов лексем, которые мы хотим распознать. Примеры лексем могут включать ключевые слова, идентификаторы, числа, строковые литералы, операторы и т.д. Давайте рассмотрим пример, где мы хотим распознать числа и операторы:
class Token: def __init__(self, type, value): self.type = type self.value = value class Lexer: def __init__(self, text): self.text = text self.current_token = None self.current_char = None def advance(self): # Перемещаем текущий символ вперед pass def skip_whitespace(self): # Пропускаем пробельные символы pass def integer(self): # Распознаем целое число pass def get_next_token(self): # Получаем следующий токен pass
2. Реализация методов
Теперь мы можем реализовать методы для перемещения по тексту, пропуска пробельных символов, распознавания целых чисел и получения следующего токена.
def advance(self): # Перемещаем текущий символ вперед self.current_pos += 1 if self.current_pos < len(self.text): self.current_char = self.text[self.current_pos] else: self.current_char = None def skip_whitespace(self): # Пропускаем пробельные символы while self.current_char is not None and self.current_char.isspace(): self.advance() def integer(self): # Распознаем целое число result = '' while self.current_char is not None and self.current_char.isdigit(): result += self.current_char self.advance() return int(result) def get_next_token(self): # Получаем следующий токен while self.current_char is not None: if self.current_char.isspace(): self.skip_whitespace() continue if self.current_char.isdigit(): return Token("INTEGER", self.integer()) # Добавьте обработку других типов лексем здесь
3. Тестирование
Теперь, когда методы реализованы, мы можем протестировать наш лексер, написав простую программу, которая будет использовать его:
lexer = Lexer("123 + 456") token = lexer.get_next_token() while token is not None: print(token.type, token.value) token = lexer.get_next_token()
Этот код создаст лексер, который будет разбирать выражение "123 + 456" и выдавать следующие токены:
INTEGER 123 PLUS + INTEGER 456
4. Заключение
В этой статье мы рассмотрели, как написать простой лексер на языке Python. Лексер является важной составляющей компилятора или интерпретатора и большинство языков программирования имеют свои собственные лексические правила. Надеюсь, эта статья помогла вам понять основы написания лексера.