编辑导读:近几年,开盲盒突然又火热了起来。不仅出现了各种各样的品牌,开盲盒的方式也五花八门。盲盒为何会让这么多人上瘾?开盲盒的人是什么样的心理?本文对盲盒令人上瘾的背后密码进行了分析讨论,一起来看看~
从商场过道的贩卖机、精品玩具店到公司住所周边的便利店,簇拥着年轻男女聚集的,除了美食和快时尚,他们还沉迷于各类盲盒,从手办到化妆品、衣服和图书等。
普普通通的商品在蒙上面罩后有了更大的吸引力,让人不禁探索“猜猜里面是什么”这一问题的答案,本期我们就来挖一挖:#令人上瘾的盲盒#
盲盒,起源于日本,是受到“福袋”、“扭蛋”的启发,由动漫人物造型衍生出来的潮玩。同一系列的盲盒往往拥有着同样的外观,但在打开之前,消费者无法得知自己买到了什么样的产品。十几年前流行的干脆面集卡游戏,其实和盲盒都是相似的逻辑。
2019年是盲盒极为风靡的一年,以泡泡玛特为代表的盲盒产品吸引了众多消费者,各大商场中的盲盒门店、贩卖机附近,总有年轻的消费者在完成购买后迫不及待地打开手中的盒子,拆出那个“来之不易”的宝贝,转眼又会在微博、小红书等社交平台上看到盲盒主角的精美照片,po主亲切地称呼它们为“我的娃”。
越来越多的玩具手办加入“盲盒家族”,更多类型的产品也开始结合这种形式进行销售,盲盒经济引起了人们的广泛关注。
2020年6月,泡泡玛特进军港股,其招股说明书中提到近三年来企业的净利润翻了280多倍,盲盒激发的消费潜力可见一斑。尤其是对于部分品牌零售商而言,“盲盒模式”有许多值得探究与借鉴的地方,今天,我们就来理一理“盲盒背后的上瘾密码”。
01 激励机制,令人欲罢不能
盲盒是一种具有不确定性的产品,多采用”固定款+隐藏款“的形式,同时也会加入不那么受欢迎的款式,为消费者的购物过程带来了更大的挑战性,令其更加珍惜自己抽中的产品。
揭晓谜底时的惊喜感刺激着人脑分泌多巴胺,消费者可能觉得自己欧气满满,也可能成为“脸黑玩家”,但人总有想要以小博大的赌徒心理,在赢的时候追求更大的赢,在输的时候期待下一次能够扭转运气,这样的心理结合上盲盒产品单价较低、成系列推出的特性,激发着消费者的购物欲、收藏欲,从而实现了盲盒的高频次复购。
这种激励机制对Z世代有着巨大的吸引力,Z世代通常对新鲜事物有着更高的接受度,愿意为情感需求买单,追求未知的冒险体验,盲盒产品商家也因此将目标消费者定位于年轻群体,据泡泡玛特官方提供的用户数据显示,18
提到虚拟化技术,我们首先想到的一定是 Docker,经过四年的快速发展 Docker 已经成为了很多公司的标配,也不再是一个只能在开发阶段使用的玩具了。作为在生产环境中广泛应用的产品,Docker 有着非常成熟的社区以及大量的使用者,代码库中的内容也变得非常庞大。如果你想和更多Docker技术专家交流,可以加我微信liyingjiese,备注『加群』。群里每周都有全球各大公司的最佳实践以及行业最新动态。
同样,由于项目的发展、功能的拆分以及各种奇怪的改名 PR,让我们再次理解 Docker 的的整体架构变得更加困难。
虽然 Docker 目前的组件较多,并且实现也非常复杂,但是本文不想过多的介绍 Docker 具体的实现细节,我们更想谈一谈 Docker 这种虚拟化技术的出现有哪些核心技术的支撑。
首先,Docker 的出现一定是因为目前的后端在开发和运维阶段确实需要一种虚拟化技术解决开发环境和生产环境环境一致的问题,通过 Docker 我们可以将程序运行的环境也纳入到版本控制中,排除因为环境造成不同运行结果的可能。但是上述需求虽然推动了虚拟化技术的产生,但是如果没有合适的底层技术支撑,那么我们仍然得不到一个完美的产品。本文剩下的内容会介绍几种 Docker 使用的核心技术,如果我们了解它们的使用方法和原理,就能清楚 Docker 的实现原理。
命名空间(namespaces)是 Linux 为我们提供的用于分离进程树、网络接口、挂载点以及进程间通信等资源的方法。在日常使用 Linux 或者 macOS 时,我们并没有运行多个完全分离的服务器的需要,但是如果我们在服务器上启动了多个服务,这些服务其实会相互影响的,每一个服务都能看到其他服务的进程,也可以访问宿主机器上的任意文件,这是很多时候我们都不愿意看到的,我们更希望运行在同一台机器上的不同服务能做到完全隔离,就像运行在多台不同的机器上一样。
在这种情况下,一旦服务器上的某一个服务被入侵,那么入侵者就能够访问当前机器上的所有服务和文件,这也是我们不想看到的,而 Docker 其实就通过 Linux 的 Namespaces 对不同的容器实现了隔离。
Linux 的命名空间机制提供了以下七种不同的命名空间,包括 CLONE_NEWCGROUP、CLONE_NEWIPC、CLONE_NEWNET、CLONE_N
我们安装Docker Desktop的时候,他会问我们是否需要使用WSL2(基于Windows的Linux子系统),如果我们不适用,就会使用Hyper-v虚拟机运行,不过相比于虚拟机,子系统在性能方面更加出色。在我们选择使用WSL2之后,并且我们也确定打开了如下图所示的Windows功能(如果没有打开,请先百度如何打开wsl。)
还是会出现一个下图所示的报错。
更加报错提示,猜测可能是我们使用的wsl2版本老了,需要我们自己手动更新一下,我们根据提示去微软官网下载最新版的wsl2安装后即可正常打开。
更新包下载链接。
本文拆解了拼多多13个拉新裂变的环节,来看看看小程序的增长套路。
几个关键字:电商、拼团、自传播、失效性(紧迫感)、诱导、不想损失、微信小程序、App。
活动标题:好友帮开,你领现金——小程序
玩法规则:
特别提醒:对于第一次参与的用户,很多会以为是现金,如果没有注意看规则,那么只有在提现之后才知道是券(购买商品的时候抵用),有一定的误导性。
活动截图:
活动目的:通过(好友帮拆、帮拆好友越多,获得奖励越多)来激励用户分享,找好友帮忙拆,让产品不断的出现在更多用户眼前,提升产品高曝光量和活跃度,同时所获得的无门槛优惠券进一步提升用户购买商品转化率(更便宜)。帮忙的好友也可以获得随机金额奖励,有利于新用户注册。
活动标题:邀请好友开宝箱,领取无门槛现金——小程序。
玩法规则:
特别提醒:对于第一次参与的用户,很多会以为是现金,如果没有注意看规则,那么只有在第一次组团成功才知道是券(购买商品的时候抵用),有一定的误导性。
活动截图:
活动目的:通过邀请好友帮忙开宝箱,获得优惠券,利用用户占便宜的心理,驱使用户分享,提升购买商品转化率(更便宜)。
活动标题:1分钱抽奖,天天有惊喜——小程序、App。
玩法规则:
编辑导语:在上一篇中,我们讲到了运营必须了解的内容分发策略——打压与推优;本文详细介绍了推荐算法解析,比如我们平常在刷抖音时,你会发现他给你的推送都是你感兴趣的;本文对此做出详细分析,我们一起来看一下。
推荐算法可谓目前社区产品内容分发的标配,尤其是有抖音珠玉在前,精准的推荐效果和巨大的商业成功甚至让许多模仿者对个性化推荐近乎迷信。
作为运营,我们虽然不需要参与算法的设计与coding,但若能对其背后的工作逻辑有一个基本的理解,更有助于我们完成策略干预与算法优化等工作,在与产品、研发同学沟通时也不至于因知识盲区而闹出笑话。
一、推荐算法的工作流程
推荐算法在工作时有四个步骤:获取数据、召回、排序、结果展示。
1. 获取数据
数据是推荐的依据,是算法决定将什么样的内容推给谁的根本,主要包括用户数据与内容数据。用户数据有基本画像(如年龄、性别、地理位置等)和行为数据(如播放、点赞、评论、分享等);内容数据有基础数据(如标签tag、发布者权重等)和热度数据(播放、点转评等)。
2. 召回
数据库存有海量的内容,考虑到计算负荷与实时性的要求,算法不可能在用户每刷新一次时,都对数据库中所有的内容计算分值排序一次;所以通常会通过特定的规则召回指定数量的内容,视社区内容体量而定,这个数量通常为几百到几千。
3. 排序
算法从数据库中召回的内容良莠不齐,而产品的目的则是将好的内容优先展示给给用户,故而需要对召回的内容做统一的打分排序。
4. 结果展示
将排序的结果映射到前端的槽位展示,即是用户所看见的内容信息。
二、推荐算法的类别
目前主流的推荐算法,主要有流行度推荐(热度推荐)、基于内容推荐、协同过滤这三种逻辑;辅以人群推荐、标签推荐、运营干预等更简单的灵活策略。
算法的本质是“猜你最想看什么”,其中热度推荐负责找出当下最热门的内容;协同过滤与基于内容推荐负责找出你可能感兴趣的类型。
社区在应用算法时通常会将上述几种逻辑分别加权然后混合计算,在技术受限或不需要个性化的社区场景也有单独使用热度推荐的情况,如B站的【热门】tab,皮皮虾的排行榜等。
后文将对几种推荐逻辑分别进行解析。
三、热度推荐
热度推荐即是根据内容的产生时间、播放、点赞、评论、分享等交互数据计算出时下最流行的内容,其数学原理相对简单,举个例子:
如图即为某个社区产品帖子的热度计算公式,不必对公式恐惧,其原理很简单,其中:
1)views:浏览量,对浏览量
编辑导语:对于运营者来说,内容至上是不变的真理。无论采取什么运营手法,都需要内容的支撑才能收获良好的效果。然而内容运营并不仅仅只围绕内容生产,内容被消费才有意义,于是核心就是采取好的策略去筛选和分发生产的内容。本文作者就为我们介绍了运营必须了解的内容分发策略之一——打压与推优。
内容是一个社区产品最直观的价值体现,也是连接社区生产者与消费者的桥梁纽带。
但社区内容运营的工作远不只是围绕内容生产,酒香也怕巷子深,能被消费的内容才是有意义的内容,故而核心就在于如何筛选和分发这些已经生产出来的内容。
无论你是否从事内容分发的工作,都需要对其逻辑有所了解。
对此可以将之拆解为5个问题:
由这些问题可以归纳出三个工作方向:打压与推优、推荐算法、分发场景,本文重点解析打压与推优的逻辑。
有人可能会质疑,社区产品的使命不就是让每个生产者的内容都能被看到吗?为什么会有“让谁的的内容被看到”这种命题?
人人平等是慈善,做生意就一定有歧视。毕竟我们要做并不是发现每一条优质内容,而是让发现优质内容的概率与效率变高。
无论是冷启动社区,还是抖音快手这种顶流,流量都是有限的,把流量分给有优质内容生产能力的用户:一方面可以提高流量的利用效率;另一方面也可以提高被消费的内容质量,是内容推荐工作的第一步。
为了精准定位有价值的生产者,可以将之按价值由低到高分为6类:黑名单用户、流失用户、低活用户、新用户、活跃用户、KOL。
这一类用户已经触发过社区的内容安全规则,比如发布过违规内容或者账号行为异常等。其作为生产者的价值最低,是重点打压对象,平台通常不会给他们的内容任何流量,严重者甚至封禁账户或发布功能。
指长时间未有登录行为的用户,因其对平台的黏性较低且有再次流失的风险,故而要提高其内容曝光的门槛,可参考如下指标:
满足标准后,才会给予曝光的机会,并观察其后续表现。
总体来看,此类用户生产的内容质量较差,试探、尝鲜类的内容较多。
但其作为源头活水,为达成发掘潜在活跃用户与KOL的供给和提高留存的目标,会分给其少量流量。
对这一部分用户实行的策略是“有限的机会平等”,对他们发布的
分销裂变是产品运营的手段之一,作为一种独特的营销玩法,分销裂变不仅被传统电商平台使用,同时也是新平台快速获客引流的不二法门。不过在众多误解之下,这个词很容易被妖魔化。本文向我们介绍了做分销系统过程中需要注意的几个关键内容,并分别对每个点展开了详细的分析,与大家分享。
作者:明天上线
题图来自Unsplash, 基于CC0协议
全文共 4159 字,阅读需要 8 分钟
—————— / BEGIN / ——————
说起分销,现在大家普遍的认知,可能大多还停留在朋友圈里的微商层面。
拉人头是司空见惯的手段,发展下线是常用的操作手法,朋友圈和微信群轰炸是日常套路。
外行看热闹,内行看门道。没做过分销系统,就没资格说懂分销。就算做过分销系统,可能也只是略懂。
要想玩转这一整套复杂体系,必须经过千锤百炼,历经磨难与挫折。
今天就试着捋一捋在做分销系统过程中,我们需要注意的内容。
分销门槛
关于分销的门槛,根据我自己公司的实际情况,同时参考了其他主流平台,发现大致有下面这三类:提交审核型、购买加入型、直接加入型。
1. 提交审核型
所谓提交审核型,指的是用户想要加入分销体系,需要提交相应的资料,然后平台进行资质的审核,必须审核通过后才能成功加入。
这种类型,适合大部分的B端/供应链场景。
此时,对于平台自身来说,其目的并不是希望获得更多的用户,也不是分销卖货,而是为了获得优质的资源。
拿供应链来说,无论是对所有渠道的控制还是对价格的敏感度,就决定了其势必不是追求量,而是追求质。
而关于审核所需要的资料,就要看每个公司的实际业务情况了。
对于分销后台来说,我们需要提炼不同行业的通用标准,然后以此为基础,形成不同的模板。
然后根据用户的类型自动匹配,同时也要能够对这些资料进行自定义配置,满足不同需求。
比如美容行业,在入驻分销的时候,就需要对方提供相应的营业执照、门店信息、美容执照。其他通用行业,可能只需要身份信息即可。
2. 购买加入型
所谓购买加入型,指的是用户想要加入分销体系,必须购买指定商品/服务/充值,购买成功后自动加入分销。
这种类型,适合的是针对C端/平台场景。
根据不同的平台类型,购买的内容会有所不同,有些是商品,有些是服务,有些是套餐,有些则是直接充值。
这样做的目的,也是筛选出有付费意愿的用户,有两个好处:
帮助平台过滤掉那些没有真实意向的用户,这样的人后续的运营维护成本会很高。让用户对平台有一种门槛权威,在
环境/组件 | 版本 | 下载地址 |
---|---|---|
操作系统 | CentOS 7.3 | http://archive.kernel.org/centos-vault/7.3.1611/isos/x86_64/CentOS-7-x86_64-DVD-1611.iso |
Prometheus | 2.6.0 | https://prometheus.io/download/#prometheus |
go | 1.11.4 | https://golang.org/dl/ |
Grafana | 5.4.2 | https://dl.grafana.com/oss/release/grafana-5.4.2-1.x86_64.rpm |
tar -C /usr/local/ -xvf go1.11.4.linux-amd64.tar.gz
vim /etc/profile export PATH=$PATH:/usr/local/go/bin source /etc/profile
go version
tar -C /usr/local/ -xvf prometheus-2.6.0.linux-amd64.tar.gz ln -sv /usr/local/prometheus-2.6.0.linux-amd64/ /usr/local/Prometheus
普罗米修斯默认配置文件 vim /usr/local/Prometheus/prometheus.yml
/usr/local/Prometheus/prometheus --config.file=/usr/local/Prometheus/prometheus.yml &
浏览器打开IP:9090端口即可打开普罗米修斯自带的监控页面
普罗米修斯默认的页面可能没有那么直观,我们可以安装grafana使监控看起来更直观
rpm -ivh --nodeps grafana-5.4.2-1.x86_64.rpm
sudo /bin/systemctl daemon-reload sudo /bin/systemctl enable grafana-server.service sudo /bin/systemctl start grafana-server.service
docker php-fpm 7 + yii 2.0
docker pull daocloud.io/php:7.0.2-fpm 以后,yii
除了mbstring没有初始化安装好以外,imagick也没有安装好。
安装方法:
1 从https://pecl.php.net/package/imagick 下载最新版的源码。
解压后:
<span class="pln">phpize </span><span class="pun">./</span><span class="pln">configure make </span><span class="pun">&&</span><span class="pln"> make install</span>
因为默认的镜像系统是debian 8, 所以使用以下命令:
把依赖包先装上。
<span class="typ">Installing</span><span class="pln"> shared extensions</span><span class="pun">:</span><span class="pln"> </span><span class="str">/usr/</span><span class="kwd">local</span><span class="pun">/</span><span class="pln">lib</span><span class="pun">/</span><span class="pln">php</span><span class="pun">/</span><span class="pln">extensions</span><span class="pun">/</span><span class="kwd">no</span><span class="pun">-</span><span class="pln">debug</span><span class="pun">-</span><span class="pln">non</span><span class="pun">-</span><span class="pln">zts</span><span class="pun">-</span><span class="lit">20151012</
\cp /etc/hosts.deny /root/hosts.deny.tmp
cat /var/log/secure | awk '/^.*(F|f)ailed.*/'|tail -4
cat /var/log/secure | awk '/^.*(F|f)ailed.*/'|egrep "from ([0-9]+\.){3}[0-9]+" -o
cat /var/log/secure | awk '/^.*(F|f)ailed.*/'|egrep "from ([0-9]+\.){3}[0-9]+" -o|sed 's#from #sshd:#g'
cat /var/log/secure | awk '/^.*(F|f)ailed.*/'|egrep "from ([0-9]+\.){3}[0-9]+" -o|sed 's#from #sshd:#g' >> /root/hosts.deny.tmp
wc -l /root/hosts.deny.tmp /etc/hosts.deny
sort /root/hosts.deny.tmp|uniq -w 15 #或者sort -u /root/hosts.deny.tmp sort -u /root/hosts.deny.tmp -o hosts.deny.tmp #去除重复并写入
\cp hosts.deny.tmp /etc/hosts.deny