telegram有插件月费40可以实时翻译任何语言,我粗看了下大概是发送到火山翻译然后把译文用js附加html元素显示在原文下,目前一天下来总会花不少时间刷知乎、rt今日俄罗斯看看有没有什么刺激的新闻,消息有限是一方面另外长期如此也容易信息茧房,于是想在telegram看看有什么关注度大的频道利用chatgpt来逆向这个telegram的翻译插件。这个程序用到了beautiful soup格式化html提取文本,分段发送给火山翻译。需要注意的有几点:

1.translate_tab = tab.get_tab(url=’volcengine.com‘) 用get_tab可以获取当前已有的标签页,我一开始是打开telegram再跳转到火山翻译,反复横跳。这样会造成每次跳转需要设置页面加载等待时间,另外火山翻译每次打开默认是翻译为英文,如果页面始终保持打开不刷新的话,可以设置好中文,这样不用反复切换翻译语言,那样也会耗时。

2.有时会莫名其妙翻译语言切换为英文,这里检测翻译语言,若因为不明原因发生变动则使其切换为中文。

3.过滤掉一些出现文本的html元素以及某些文本,比如点赞数的数字,日期,http www链接等等,@用户名,这些都会浪费时间没有翻译的意义。

4.一开始翻译遇到了译文顺序问题,多段译文会倒叙排列,因为后翻译的会去紧贴原文的div,我想了下不如把同一个div中的原文合并提交,这样还可以节约提交次数省事且解决了顺序问题,因为同一个div下的原文会合并一次性翻译出来。这样做还能避免重复出现过的内容检测第1个div从而使译文错位的问题。

5.译文因为重复出现过的内容检测第1个div从而使译文错位的问题,可以通过添加属性给属性值translated作为标记从而跳过,这个手法或许在4的使用下变得没有用武之地,不过其他项目可以参考。

阅读更多

导入ue前务必检查各种modifier比如array、solidify、mirror都已经应用了。

不知道为啥bakemaster没autounwrap,所有的wall都没uv,全部重来一遍,吸取教训下次bakemaster之前必然保存一份dataname分类collection的blender版本。

当物体超过1000个时,若data name为大于1000的数值会导致导出到ue的packedA Texture出问题,物体超标的很大原因是房型多,那么房型命名变一下前缀即可解决。

这套搞了大概一个多星期,很大的问题在于缺少参考,自己思考折腾了很久,说明还是需要midjourney这边提供更多的参考池。笔记本的auto midjourney这回一次性开了近3天搞了490轮,挑了大概100个图,精简下可能也就20个吧。

阅读更多

检测场景中的重叠对象并随机删除每对重叠对象中的一个
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
  

import bpy
import mathutils
import random

# 获取所有对象
objects = list(bpy.context.scene.objects)

# 清除当前选择
bpy.ops.object.select_all(action='DESELECT')

# 存储已经删除的对象,以避免重复删除
deleted_objects = set()

# 检测重叠对象并记录重叠对
overlap_pairs = []

for i, obj in enumerate(objects):
if obj.name in deleted_objects:
continue

bbox_corners = [obj.matrix_world @ mathutils.Vector(corner) for corner in obj.bound_box]

for j, other_obj in enumerate(objects):
if i >= j or other_obj.name in deleted_objects:
continue

other_bbox_corners = [other_obj.matrix_world @ mathutils.Vector(corner) for corner in other_obj.bound_box]

if (min(c[0] for c in bbox_corners) <= max(c[0] for c in other_bbox_corners) and
max(c[0] for c in bbox_corners) >= min(c[0] for c in other_bbox_corners) and
min(c[1] for c in bbox_corners) <= max(c[1] for c in other_bbox_corners) and
max(c[1] for c in bbox_corners) >= min(c[1] for c in other_bbox_corners) and
min(c[2] for c in bbox_corners) <= max(c[2] for c in other_bbox_corners) and
max(c[2] for c in bbox_corners) >= min(c[2] for c in other_bbox_corners)):

overlap_pairs.append((obj.name, other_obj.name))

# 随机删除每对重叠对象中的一个
for obj_name, other_obj_name in overlap_pairs:
to_delete_name = random.choice([obj_name, other_obj_name])
deleted_objects.add(to_delete_name)
to_delete = bpy.data.objects.get(to_delete_name)
if to_delete:
bpy.data.objects.remove(to_delete, do_unlink=True)

阅读更多

继续积累一些关于景观的手法和常识,目前这一块我还没有研究怎样驱动人工智能去批量生产参考。

边缘用offset分割,这可以提取项目中现成的地块,用select manifold可以选中不规则布线的边缘然后提取曲线再用curve offset成型。

阅读更多

第一个景观项目目前推进到了还差树木、花卉,我觉得这需要大量的图例来参考学习,找感觉。光靠文字解说局限性大,且见效慢。我想到的方法是在pinterest上找图丢给midjourney参考生产,一种是带url参考一种是describe获取关键词之后用关键词生产,后者的话自由度更高。我目前设计的程序是每次采用第一组–ar前的关键词去生产图,还没有结合图片url做参考,或许也可以考虑把第二个–ar和第一个–ar之间的内容分两次,那么一个链接理论上如果配套url可以生产3组。配套url我觉得关键词结合一次就好了,图片引导的作用会比较强。

阅读更多

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×