V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  pannanxu  ›  全部回复第 1 页 / 共 7 页
回复总数  127
1  2  3  4  5  6  7  
我个人一直用云效,比较喜欢阿里云的产品
167 天前
回复了 JsGuiGe 创建的主题 推广 一个小团队整出来的,颠覆会计行业的 App
看起来比找代理记账的公司还要贵一些
282 天前
回复了 silverdog 创建的主题 数据库 mysql 建表那个更好
表内用 id 、外键表用 system_id,system_xxx
{"filter":{},"pageable":{"current":1,"pageSize":20}}
如果仅仅是因为模块混在一起而做微服务,其实大可不必,不但增加了系统复杂性,性能反而不会有啥提升甚至下降(多层 http 调用、分布式事务等)。可以在工程化层面来解决模块耦合问题,例如 maven 、gradle 多模块。
@dnjat
2023-12-23 13:23:37 +08:00
回复了 abc9999 创建的主题 问与答 一对多时 Mybatis 的分页方案
@abc9999 #4 那就让前端自己调用 attachment 接口获取 blogIds 相关的数据
2023-12-23 13:07:17 +08:00
回复了 abc9999 创建的主题 问与答 一对多时 Mybatis 的分页方案
从设计层面来讲,blog 和 attachment 是两个模块,考虑扩展性最好不要直接写 sqljoin ,应该从应用层做处理。或者是 blog 冗余一份 attachment
2023-12-23 11:48:38 +08:00
回复了 silentsky 创建的主题 程序员 idea 的编译真的是让人难受
虽然但是。编译不是 gradle 、maven 这类东西处理的吗。编译慢也得找找自己项目架构设计的是否合理,是否正确使用了工程化,是否有将改动小的模块提出来合理运用缓存策略。
2023-11-21 09:22:17 +08:00
回复了 cMoon 创建的主题 JetBrains idea 特别耗资源
32g 对于我们 java 开发者来说只能算入门水平。 - #掘金沸点#
https://juejin.cn/pin/7300876243953205299
一人血书,蹲一款 windows 版的 bob
2023-11-02 09:38:31 +08:00
回复了 2018yuli 创建的主题 程序员 服务边界拆分
Data 自己缓存即可。Manager 直接用过 http 或者 grpc 访问 Data 的接口即可。
用了,只是单纯的代码提示,并不具备上下文的能力。比如,你让他补全某一个实体类的 querydsl 条件查询。它根本不知道实力类里有啥。
2023-10-24 16:43:38 +08:00
回复了 cdswyda 创建的主题 git 求 Git Server 推荐
aliyun codeup
2023-10-13 10:18:12 +08:00
回复了 abcbuzhiming 创建的主题 程序员 如何解决“上传了附件但是最后其实没用”这个问题?
设计个附件库模块,有强迫症的用户会自己删除的
2023-10-11 18:04:06 +08:00
回复了 fmvp520 创建的主题 问与答 如何快速建立自己返利系统?
最开始这玩意出来到现在估计得有七八年了吧。现在还在流行吗。
2023-10-11 17:07:15 +08:00
回复了 SkyLine7 创建的主题 Java jwt 如何做在线踢人功能?
可以实现一个伪需求:使用 socket 推送,前端收到消息后执行踢出逻辑。这样需求可以实现,但如果手动保留 token 还是可以登录。
2023-10-11 16:58:36 +08:00
回复了 yfang 创建的主题 问与答 io 域名好些还是 lol 域名好些?
io 涨价了。翻了一倍。以前 200 快一年,现在 400
1  2  3  4  5  6  7  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2866 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 14:12 · PVG 22:12 · LAX 06:12 · JFK 09:12
Developed with CodeLauncher
♥ Do have faith in what you're doing.