最新 最热

重大更新!!!4G显存就能跑SDXL ?SD1.7或将对F8优化merge

关于SDXL的生态目前还未完全稳定,但是不得不提到的就是SDXL的在VAE,CLIP,UNET三大组件的巨大提升,其101亿的参数量是原本SD的N倍,那么对于SDXL的生态介绍我们再次重复一遍。4G的显存都能跑SDXL意味着将来大模型Lora将降...

2023-11-27
1

产品体验|AI视频生成产品新体验

效果不错,可自动判断需要出现动态的位置,并且自动判断应该如何运动动。同时也不会产生涉及到复杂的内容(比如人脸)的时候画面崩坏的问题,非常稳定。...

2023-11-27
1

外泌体数据库|| EVLncRNAs-V3.0版本更新:Sep 2023

长链非编码rna(lncRNAs)已经成为多种生物过程和疾病的关键调控因子。虽然高通量测序使lncRNA的发现成为可能,但功能表征仍然有限。EVLncRNAs数据库是第一个也是唯一的存储库,包含来自不同物种的所有经过实验验证的功能性l...

2023-11-27
1

我的眼睛就是尺!80亿参数OtterHD带你「清明上河图」数骆驼!南洋理工华人团队打造

最近,来自南洋理工的华人团队基于Fuyu-8B打造出了80亿参数的多模态大模型OtterHD。

2023-11-27
1

弱网测试及常用模拟工具

弱网测试主要就是对带宽、丢包、延时等进行模拟弱网环境,属于健壮性测试的内容。

2023-11-27
1

人类考92分的题,GPT-4只能考15分:测试一升级,大模型全都现原形了

GPT-4 自诞生以来一直是位「优等生」,在各种考试(基准)中都能得高分。但现在,它在一份新的测试中只拿到了 15 分,而人类能拿 92。

2023-11-27
1

小模型如何进行上下文学习?字节跳动 & 华东师大联合提出自进化文本识别器

我们都知道,大语言模型(LLM)能够以一种无需模型微调的方式从少量示例中学习,这种方式被称为「上下文学习」(In-context Learning)。这种上下文学习现象目前只能在大模型上观察到。比如 GPT-4、Llama 等大模型在非常多的领域...

2023-11-27
1

nc命令详解

nc(netcat)是一个简单、可靠的网络工具,可以用于实现任意TCP/UDP端口的侦听、端口扫描、机器之间传输文件等任务。

2023-11-27
1

COLMAP-SLAM:一个视觉里程计的框架

文章:COLMAP-SLAM: A FRAMEWORK FOR VISUAL ODOMETRY

2023-11-27
1

小模型也能进行上下文学习!字节跳动 & 华东师大联合提出自进化文本识别器

大语言模型(LLM)能够以一种无需微调的方式从少量示例中学习,这种方式被称为 "上下文学习"(In-context Learning)。目前只在大模型上观察到上下文学习现象,那么,常规大小的模型是否具备类似的能力呢?GPT4、Llama等大模型在非常...

2023-11-27
1