YS
1. Упрощает реализацию задачи (к примеру, парсеру не нужно мучиться с комментариями, whitespace, line continuations, semicolon insertion и т.п.).
2. Для реализации [большей части] лексического анализа можно применять специализированные средства — regular expressions и построение по ним DFA (или сразу генерирование кода распознавания tokens).
3. Для изменения фактического уровня разбираемой грамматики в иерархии Хомского (без чего для существенной доли практических языков CFG-парсеры — "фальшивки жалкие" ;) ).
4. И да, это сейчас памяти обычно более чем достаточно, а раньше lexers занимались управлением буферизацией входного потока и лексем, и прочими подобными делами.