043

2023/07/23 14:08

工程师

https://vercel.com/blog/how-react-18-improves-application-performance

在优化 React 的项目中,一定会被讨论的话题是:

  • 长任务,往往是延迟长任务在必要的任务之后,因为必要任务和性能和业务指标相关。在 React 18 中看起来引入更加复杂的任务调度,但是如何保证我希望的优先级比较高的任务和框架认为优先级比较高的任务不会有冲突呢?
  • 文中提到一个观点,对于 Suspense 的组件,当它数据 ready,是否开始水合并不是立刻开始的,它可能被其他的任务阻塞了,在 Suspense 的组件上面交互有利于提高的水合的时间点
  • 减少水合,关于这一点我认为目前新流行的框架似乎都在尝试类似的事情,会通过 HTML 标签属性 + JS 脚本实现响应式。甚至更新 HTML 过程也是通过直接替换某个节点的 HTML 内容实现的。

https://github.com/w3ctag/design-reviews/issues/213

关于 modulepreload 我一直以为这个功能除了请求本身的 URL 地址,还会递归请求对应子模块的 URL。就像是 https://github.com/w3ctag/design-reviews/issues/213 这个 issue 里面讨论的那样。但是实际测试了一下,并不能。和 preload 区别就像是这里说的 https://developer.chrome.com/blog/modulepreload/#but-what-about-modules-dependencies 除了预先请求缓存起来之外,浏览器还会解析它。

https://github.com/kaleidawave/ezno

类似 stc 的 tsc 替代,目前为止无论是 swc 和 esbuild 编译 ts 文件到 js 文件都比较快。但是如果进行类库的开发,无论如何都会遇到需要生成类型文件的,这个无论如何都是需要 tsc 进行生成,相对会比较慢一点。所以市面上就会出现 stc 的实现,替换掉 tsc 以及类型检查。

https://gomakethings.com/are-javascript-libraries-really-that-bad-for-performance/

性能优化 中有一项很重要的优化项目是 JS 体积,压缩是有效手段,有效的减少传输体积。文中提到即使你这么做的,并不能较少解析执行的耗时(个人认为这需要一个量变引起质变的过程),对于 JS 文件来说它和图片处理不同,图片可以在下载期间就可以开始渲染了。JS 却不行因为其中可能包含 DOM 操作,所以往往等待下载完成之后才会开始执行。这也就带来的了性能的损耗。

想法

之前有人做过统计如果在文本中加粗一段话,有利于得到阅读,现在我开始尝试在我读到的文章中加粗一段话。

文章

https://geekplux.com/newsletters/39

  • AI 生成的内容目前来说真实与否还是靠自己判断,以 WIKI 百科为例子,虽然之前存在有人编造一段虚假的历史来欺骗,但是编造对于 AI 来说还是太方便了
  • 拖延症只是害怕失败的一种方式
  • 相对失败的理论,衡量一件事情不能和这个领域里面最优秀的人比较,因为这样很容易得到挫败的感觉。但是如果从结果,是否给别人带来价值,是否给自己带来价值来说,往往可以比较容易得到成功的感觉。

https://staysaasy.com/management/2023/07/03/Achieving-Goals.html

  • 目标需要量化,所以为什么 AB 才那么受欢迎
  • 目标需要调整,如果目标不正确,需要调整。需要一个定期的机制来检查它。

https://sspai.com/post/80509

最近半年开始在编程这个技能和个人项目上给自己定计划,以两周为维度,在这件事情上体会到了任务完成的快乐。

  • 文章有件事情说的很对,多和人接触,会让你有充实的感觉
  • 培养个人兴趣爱好很重要,疏解压力已经很重要了
  • 不要偷懒,健身第一件事情是先起床

设计

https://www.figma.com/community/file/1250056962645833804

前段时间疯狂调教 Midjourney 想要实现 Raycast 类似的效果的 icon,因为有几个 CLI Application 就是想要这种 icon,手动做过一个类似的。显然这个效果更好一点。

AI

https://freeflo.ai/all

之前收集的 prompt大多数要钱,这是免费的。

https://sspai.com/post/81091

之前也有类似的观点,就是在目前大爆炸的信息数据产生的情况下,用于 AI 训练的数据还是会被耗尽,主要是高质量的数据太少了。但是文中提到一个扩充的方式,就是对于 GPT 来说不要局限于文本,应该关注在音视频上面。这样以来数据量就大了。

https://bjoernkarmann.dk/project/paragraphica

新颖的相机,使用相机捕获轮廓(文字),将轮廓交给 AI 进行绘制,实际照片和真实照片开始还真的差不多。

https://platform.openai.com/docs/guides/gpt-best-practices

官方出品的 GPT 最佳实践。