关于前端项目构建的一些背景知识
通过与 chatgpt 对话,了解一些前端项目用的包管理工具,构建工具,框架相关的产生的背景,点击原始对话链接可以直接访问对话上下文,同时回答也同步在此处。
hexo next 这个博客主题挺流行的,但是有一些显示效果不是很喜欢,一般来说我们可以 git clone 下来 next 这个主题源码再进行修改相应的样式,不过 next 提供了自定义 css 的能力,通过提供一个自定义的 style 文件就可以相应的修改显示效果,参考官方链接的使用方法Custom Files,下面分享一下我做的一些修改。
Remember, since the slice header is always updated by a call to append, you need to save the returned slice after the call. In fact, the compiler won’t let you call append without saving the result.
golang 可以很方便的通过 go 关键字开一个协程,但是不正确的使用,也容易造成协程泄漏,下面分享我碰到的案例
Mybatis 的 TypeHandler 是用来将 JavaBean 的属性与数据库中的字段值互相转换的,如果我们的 JavaBean 的属性是简单的属性如 String, Integer, Enum 等,我们一般不用关心 Mybatis 的 TypeHandler,但是如果我们需要将 JavaBean 的复杂对象作为一个字段值存储在数据表中,则需要自定义 TypeHandler 来处理值的映射,比较常见的处理是将复杂对象转换成一个 Json 字符串存储在数据库中,因此需要自定义 JsonTypeHandler,并且我们希望这个 JsonTypeHandler 能够处理泛型。
线上的项目经常需要对一些指标如请求量,qps,延时等指标做统计方便我们观察系统的运行状态,并帮助我们定位系统可能存在的性能等问题。springboot actuator 为 springboot 应用提供了指标的统计方法,prometheus 是一个监控中心,grafana 则是一个数据展示中心,本文将通过一个小案例介绍综合使用 springboot actuator、prometheus、grafana 监控我们的应用。
在需要真实的流量做旁路测试的时候,我们就可以使用 nginx 来做流量的拷贝
flink 是新一代的流式计算引擎,在 flink 的数据抽象里,数据都是流(stream),批数据就是有界的流(bounded stream),是流的特例,而 spark 所有的数据都是批数据(batch),spark 处理流数据是把流当作微批(micro batch)来处理,只能达到秒级别的准实时性。在数据处理的抽象程度上,flink 相比 spark 是更加先进的。当前许多公司已经用 flink 取代 spark streaming 和 storm 作为流计算引擎的首选。flink 目前正在高速发展中,接入更多的数据源,但是在 flink 的主分支上对 hive 的数据接入还没有完善的支持,只有一个没人维护的 hcatalog 模块,blink 作为阿里的一个内部分支,已经开始支持 hive 数据源引入,并且阿里将其贡献出来作为 flink 的一个分支,并且 7 月份 blink 的特性就会 merge 到 flink 1.9 的主分支中。
实在忍不了在本地 git 的龟速了,虽然官网不挂代理也访问无碍,但是本地 git clone 总是只有几 KB,下载稍大的一点的 repo 不仅慢而且失败率飙升
解决方案自然是使 git clone 走代理了
1 | git config --global http.https://github.com.proxy socks5://127.0.0.1:1086 |
小水管下载也完美从几 KB 提升到了 500KB