F#正则表达式
此词法分析器允许您使用F#计算表达式以非常声明的方式定义基于正则表达式的规则。
打开 Lexer 让 定义= lexerDefinitions { 做!addNextlineDefinition “NEWLINE” @ “(\ n \ r)| \ n | \ r”“ 做!addIgnoreDefinition “WS” @ “\ s” 做!addDefinition “让” “让” 做!addDefinition “ID” “(?i)[az] [a-z0-9] *” 做!addDefinition “FLOAT” @ “[0-9] + \。[0-9] +” 做!addDefinition “INT” “[0-9] +” 做!addDefinition “OPERATOR” @ “[+ * =!/&| <> \ ^ \ - ] +” }
通过这些定义,您可以执行词法分析器:
打开 Lexer 让 lex输入= 试试 让 y = Lexer.tokenize定义输入 printfn “%A” y 与 e - > printf “%s” e.Message lex “让a = 5”
这将导致:
seq [ {name = “LET” ; text = “let” ; pos = 0 ; column = 0 ; line = 0 ;}; {name = “ID” ; text = “a” ; pos = 4 ; column = 4 ; line = 0 ;}; {name = “OPERATOR” ; text = “=” ; pos = 6 ;列= 6 ; line = 0 ;}; {name = “INT” ; text = “5” ; pos = 8 ; column = 8 ; line = 0 ;}]
词法分析器的代码分为三个部分。第一部分是使用F#计算表达式的状态monad。这使得声明性方法(见上文)能够设置词法分析器规则。
模块 StateMonad 类型 State <'s,'a> = State of ('s - >('a *'s)) let runState(State f)= f type StateBuilder()= member b.Return(x)= State(fun s - >(x,s)) member b.Delay(f)= f():State <'s,'a> member b.Zero()= State(fun s - >((),s)) 成员 b.Bind(状态p,休息)=状态(有趣的 s - > 让 v,s2 = p s in (runState(rest v))s2) 成员 b.Get()=状态(有趣 的 - >(s,s) )) 成员 b.Put s = State(fun _ - >((),s))
第二部分是用于定义词法分析器规则的组合器。有三个主要组合器: AddDefinition允许您定义名称/正则表达式对, AddIgnoreDefinition允许您定义词法分析器应忽略的字符, AddNextlineDefinition允许您定义哪些字符确定新行。
输入 LexDefinitions = {regexes:string list; 名称:字符串列表; nextlines:布尔列表; 忽略:布尔列表; } 让 buildDefinition命名模式nextLine ignore = 州{ 让!x = state.Get() 做!state.Put {regexes = x.regexes @ [sprintf @ “(?<%s>%s)” name pattern]; names = x.names @ [name]; nextlines = x.nextlines @ [nextLine]; ignores = x.ignores @ [ignore]} } 让 addDefinition名模式= buildDefinition名字模式 假 虚假 让利 addIgnoreDefinition名模式= buildDefinition名字模式 假 真 让 addNextlineDefinition名模式= buildDefinition名称模式 真 真实
最后一部分是执行标记化的代码。它使用Seq.unfold方法创建令牌列表。Unfold是一个函数,它接受一个项目并从中生成一个新项目列表。它与Seq.fold相反,它接受一个项目列表并将其转换为单个项目。tokenize函数使用Seq.unfold生成每个标记,同时跟踪当前行号,该行中的位置以及输入字符串中的位置。
类型 Token = {name:string; text:string; pos:int; column:int; line:int} 让 createLexDefs pb =(runState pb){regexes = []; names = []; nextlines = []; ignores = []} |> snd let tokenize lexerBuilder(str:string)= let patterns = createLexDefs lexerBuilder let combinedRegex = Regex(List.fold(fun acc reg - > acc + “|” + reg)(List.head patterns。 regexes)(List.tail patterns.regexes)) 让 nextlineMap = List.zip patterns.names patterns.nextlines |> Map.ofList let ignoreMap = List.zip patterns.names patterns.ignores |> Map.ofList let tokenizeStep(pos, line,lineStart)= if pos> = str.Length then 没有 否则 让 getMatchedGroupName(grps:GroupCollection)names = List.find(fun (name:string) - > grps。[name] .Length> 0)名称 匹配 combinedRegex.Match(str,pos) with | 公吨 时 mt.Success && POS = mt.Index - > 让 组名= getMatchedGroupName mt.Groups patterns.names 让 柱= mt.Index - lineStart 让 nextPos = POS + mt.Length 让 (nextLine,nextLineStart)= 如果 nextlineMap.Item groupName 然后 (行+ 1,nextPos) else (line,lineStart) let token = if ignoreMap.Item groupName then None else Some { name = groupName; text = mt.Value; post = post; line = line; column = column; } 一些(令牌,(nextPos,nextLine,nextLineStart)) | 否则 - > let textAroundError = str.Substring(pos,min(pos + 5)str.Length) raise(ArgumentException(sprintf “Lexing error in line:%d and column:%d near text:%s” line(pos - lineStart)textAroundError)) Seq.unfold tokenizeStep(0, 0, 0)|> Seq.filter(有趣 X - > x.IsSome)|> Seq.map(有趣 X - > x.Value)
最后,这是使用XUnit.Net编写的单元测试:
模块 LexerFacts 开放 的xUnit 开放 词法 开放 System.Linq的 让 simpleDefs = 州{ 做!addNextlineDefinition “NextLine” “/” 做!addIgnoreDefinition “IgnoredSymbol” “= +” 做!addDefinition “String” “[a-zA-Z] +” 做!addDefinition “Number” “\ d +” 做!addDefinition “名称” “马特” } [<事实>] 让 Will_return_no_tokens_for_empty_string()= 让 令牌= Lexer.tokenize simpleDefs “” Assert.Equal(0,tokens.Count()) [<事实>] 让 Will_throw_exception_for_invalid_token()= 让 代币= Lexer.tokenize simpleDefs “ - ” 让 EX = Assert.ThrowsDelegateWithReturn(乐趣 () - > 向上转型 tokens.Count())|> Record.Exception Assert.NotNull(前) Assert.True(例如:?System.ArgumentException) [<事实>] 让 Will_ignore_symbols_defined_as_ignore_symbols()= 让 令牌= Lexer.tokenize simpleDefs “=========” Assert.Equal(0,tokens.Count()) [<事实>] let Will_get_token_with_correct_position_and_type()= let tokens = Lexer.tokenize simpleDefs “1one = 2 = two” Assert.Equal(“Number”,tokens.ElementAt(2).name) Assert.Equal(“2”,tokens.ElementAt(2).text) Assert.Equal(5,tokens.ElementAt(2).pos) Assert.Equal(5,tokens.ElementAt(2).column) Assert.Equal(0,tokens.ElementAt(2).line) [<事实>] let Will_tokenize_string_with_alernating_numbers_and_strings()= let tokens = Lexer.tokenize simpleDefs “1one2two” Assert.Equal(“1”,tokens.ElementAt(0).text) Assert.Equal(“one”,tokens.ElementAt(1).text) Assert.Equal(“2”,tokens.ElementAt(2).text) Assert.Equal(“two”,tokens.ElementAt(3).text) [<事实>] let Will_increment_line_with_newline_symbol()= let tokens = Lexer.tokenize simpleDefs “1one / 2two ” Assert.Equal(“Number”,tokens.ElementAt(2).name) Assert.Equal(“2”,tokens.ElementAt(2).text) Assert.Equal(5,tokens.ElementAt(2).pos) Assert.Equal(0,tokens.ElementAt(2).column) Assert.Equal(1,tokens.ElementAt(2).line) [<事实>] let Will_give_priority_to_lexer_definitions_defined_earlier()= let tokens = Lexer.tokenize simpleDefs “Matt” Assert.Equal(“String”,tokens.ElementAt(0).name)
F#正则表达式的更多相关文章
- Codeforce727B --- Bill Total Value(字符串处理 正则表达式)
先说一下正则表达式 %*[a-z]表示忽略前面的小写字符,%[0-9]表示把紧接着非字符的连续数字存入t字符串中去; 从"abc123de4f"中得到"123" ...
- JQuery中trim函数的具体实现代码
由于Javascript 1.8.1 之前的版本,没有内置 trim 函数,所以 JQuery 对它有自己的实现.不同的JQuery版本,trim函数的实现也不尽相同. 阅读本文需要掌握正则表达式用法 ...
- vimer
vimer 第1.0章.统一概念 不管学什么技术,我都深信概念是最重要的.是影响整个学习轨迹,决定能在这个技术领域高度. 当然如果你现在的目的不是在学习而在于解决问题(很多人不愿意承认,或者没发现 ...
- WinMerge 过滤器用法
WinMerge是一款开源的文件对比合并工具.http://winmerge.org/WinMerge提供了“过滤器”功能,可以在对比时排除特定的目录或文件. 1.编辑过滤规则工具 -> 过滤器 ...
- 菜鸟vimer成长记——第1章、统一概念
不管学什么技术,我都深信概念是最重要的.是影响整个学习轨迹,决定能在这个技术领域高度. 当然如果你现在的目的不是在学习而在于解决问题(很多人不愿意承认,或者没发现),那概念就暂时没那么重要了. 目的 ...
- pkill命令详解
基础命令学习目录首页 原文链接:http://www.mamicode.com/info-detail-2315063.html 一:含义: 是ps命令和kill命令的结合,按照进程名来杀死指定进程, ...
- pkill详解
pkill详解 一:含义: 是ps命令和kill命令的结合,按照进程名来杀死指定进程,pkill和killall应用方法差不多,也是直接杀死运行中的程序:如果您想杀掉单个进程,请用kill来杀掉. 二 ...
- mongodb增删改查操作
Note:mongodb存储的是文档,且文档是json格式的对象,所以增删改查都必须是json格式对象. 注:mongodb常用库和表操作,但mongodb在插入数据时,不需要先创建表. show d ...
- Mysql_以案例为基准之查询
查询数据操作
- F#之旅9 - 正则表达式
今天,cozy群有个群友发了条正则,问正则匹配相关的问题.虽然他的问题用html selector去处理可能更好,但是我也再一次发现:我忘了正则怎么写的了! 忘掉正则是有原因的,这篇文章会简单记录下F ...
随机推荐
- CentOS 安装Python3.x常见问题
CentOS 6.x自带的Python版本是2.6,CentOS 7.x上自带的是2.7,我们要自己安装Python3.X,配置环境,不过一般安装过程不会一帆风顺,往往有些报错,在CentOS以及其他 ...
- vritualenv虚拟环境迁移
vritualenv虚拟环境迁移的简单步骤: 1.进入原虚拟环境env1,然后执行pip freeze > requirements.txt将包依赖信息保存在requirements.txt文件 ...
- 任务调度--spring下的任务调度quartz
之前写过Timer实现任务调度,这篇文章用来写一下在spring下使用quartz实现任务调度,直接上代码: 定义任务对象: package com; /** * 1. 定义任务对象 * * @aut ...
- Android base-adapter-helper 源码分析与扩展
转载请标明出处:http://blog.csdn.net/lmj623565791/article/details/44014941,本文出自:[张鸿洋的博客] 本篇博客是我加入Android 开源项 ...
- bash: jar: 未找到命令..(command not found)
/bin/bash: jar: command not found 解决办法: cd /usr/bin 必须先进入/usr/bin,下同 sudo ln -s -f /usr/lib/jvm/jdk1 ...
- 【最小生成树+贪心】BZOJ1821: [JSOI2010]Group 部落划分 Group
Description 聪聪研究发现,荒岛野人总是过着群居的生活,但是,并不是整个荒岛上的所有野人都属于同一个部落,野人们总是拉帮结派形成属于自己的部落,不同的部落之间则经常发生争斗.只是,这一切都成 ...
- BZOJ_4016_[FJOI2014]最短路径树问题_最短路+点分治
BZOJ_4016_[FJOI2014]最短路径树问题_最短路+点分治 Description 给一个包含n个点,m条边的无向连通图.从顶点1出发,往其余所有点分别走一次并返回. 往某一个点走时,选择 ...
- BZOJ_2141_排队_树状数组+分块
BZOJ2141_排队_树状数组+分块 Description 排排坐,吃果果,生果甜嗦嗦,大家笑呵呵.你一个,我一个,大的分给你,小的留给我,吃完果果唱支歌,大家 乐和和.红星幼儿园的小朋友们排起了 ...
- SAP GUI个性化设置
大概从GUI730开始,GUI品牌化一直不被默认支持,在GUI设置选项里处于灰色状态,如下图: 不过用户还是可以修改注册表的方式来进行修改,让它可以设置! 首先运行Regedit,在目录:HKEY_L ...
- 为自己搭建一个分布式 IM 系统二【从查找算法聊起】
前言 最近这段时间确实有点忙,这篇的目录还是在飞机上敲出来了的. 言归正传,上周更新了 cim 第一版:没想到反响热烈,最高时上了 GitHub Trending Java 版块的首位,一天收到了 3 ...