投稿時間:2022-07-15 22:40:30 RSSフィード2022-07-15 22:00 分まとめ(52件)

カテゴリー等 サイト名等 記事タイトル・トレンドワード等 リンクURL 頻出ワード・要約等/検索ボリューム 登録日
IT ITmedia 総合記事一覧 [ITmedia ビジネスオンライン] “1分間最強”を決める「BreakingDown5」 全21試合の対戦カードを発表 https://www.itmedia.co.jp/business/articles/2207/15/news189.html breakingdown 2022-07-15 21:47:00
AWS AWS Compute Blog Creating a serverless Apache Kafka publisher using AWS Lambda https://aws.amazon.com/blogs/compute/creating-a-serverless-apache-kafka-publisher-using-aws-lambda/ Creating a serverless Apache Kafka publisher using AWS LambdaIn this post you learn how to create a serverless integration Lambda function between API Gateway and Apache Managed Streaming for Apache Kafka MSK We show how to deploy such an integration with the CDK 2022-07-15 12:57:37
python Pythonタグが付けられた新着投稿 - Qiita pythonのsleep関数について https://qiita.com/mitsuyacider0802/items/7e2e9c5eecb105612a06 tsuyatimesleepprintcidert 2022-07-15 21:56:45
python Pythonタグが付けられた新着投稿 - Qiita 【Ubuntu】BlenderのPythonにパッケージを追加する方法 https://qiita.com/HiroRittsu/items/4c564a7f830bf281ab42 blender 2022-07-15 21:45:08
python Pythonタグが付けられた新着投稿 - Qiita Databricksでbamboolibを使ってみる https://qiita.com/taka_yayoi/items/7bf7813a84e169644876 bamboolib 2022-07-15 21:12:29
Linux Ubuntuタグが付けられた新着投稿 - Qiita 【Ubuntu】BlenderのPythonにパッケージを追加する方法 https://qiita.com/HiroRittsu/items/4c564a7f830bf281ab42 blender 2022-07-15 21:45:08
Docker dockerタグが付けられた新着投稿 - Qiita スパコン利用者のための仮想環境構築入門 https://qiita.com/takiwaki_tomoya/items/3fb1d98f966c52ef31ea 計算 2022-07-15 21:58:26
Docker dockerタグが付けられた新着投稿 - Qiita 19.5.4.5 Non-member functions [syserr.errcode.nonmembers] C++N4910:2022 (397) p568c.c https://qiita.com/kaizen_nagoya/items/881830ab67cdf9a98553 draft 2022-07-15 21:58:00
Docker dockerタグが付けられた新着投稿 - Qiita 19.5.4.4 Observers [syserr.errcode.observers] C++N4910:2022 (396) p568b.c https://qiita.com/kaizen_nagoya/items/8a2494e4ae190a9e19e0 draft 2022-07-15 21:54:39
Docker dockerタグが付けられた新着投稿 - Qiita Docker上のMySQLで日本語入力をする方法 https://qiita.com/Harupi128/items/8f098fb7de6a23a0fcc6 docker 2022-07-15 21:52:34
技術ブログ Developers.IO [アップデート] Amazon VPC Flow LogsがTransit Gatewayをサポートしました https://dev.classmethod.jp/articles/amazon-vpc-flow-logs-supports-transit-gateway/ vpcflow 2022-07-15 12:37:29
技術ブログ Developers.IO RDS for Oracleのブロックサイズを調べてみた https://dev.classmethod.jp/articles/check-rds-for-oracle-block-size/ dbblocksize 2022-07-15 12:36:44
海外TECH MakeUseOf How to Find Information on Someone Online: 7 Simple Steps https://www.makeuseof.com/tag/4-steps-find-information-someone-online/ powerful 2022-07-15 12:30:14
海外TECH DEV Community How to Make a Real Estate Website Using Html CSS JavaScript https://dev.to/codewithsadee/how-to-make-a-real-estate-website-using-html-css-javascript-1hjc How to Make a Real Estate Website Using Html CSS JavaScriptHow to Make a Real Estate Website Using Html CSS JavaScriptThis video will show you how to make a real estate website using html css javascriptLive WebsiteGithub RepoHI I m Sadee webdev In this channel I make videos about Complete Responsive website You can checkout my channel My Channel codewithsadeeSubscribe subscribe now Essential linksStarter file ️Timestamps Demo File structure Project initial Header Hero section About section Service section Property section Contact section Newsletter section Footer Media queries 2022-07-15 12:56:52
海外TECH DEV Community Bases de datos distribuidas: sharding. https://dev.to/anfibiacreativa/bases-de-datos-distribuidas-sharding-4a39 Bases de datos distribuidas sharding En el post anterior habléde algunos conceptos básicos para entender el modelo de documento Básicamente el modelo de documento surgióde una necesidad real por parte de los desarrolladores de tener un sistema más idiomático de representar datos y sus relaciones que se pudiera mapear a los objetos que típicamente creamos cuando usamos patrones de programación orientados a los mismos OOP Básicamente el modelo de documento surgióde una necesidad real por parte de los desarrolladores de tener un sistema más idiomático de representar datos y sus relaciones que se pudiera mapear a los objetosEs preciso recordar que las primeras bases de datos relacionales de modelo tabular surgieron en los Es decir cuando el uso que se le daba a los sistemas computacionales era diferente del de ahora ¡no comprendía la web por ejemplo y los mismos se desplegaban y servían de manera centralizada No existía ni una necesidad ni una infraestructura ni una governanza que requiriera que las bases de datos se distribuyeran a través de diversas ubicaciones Las primeras bases de datos relacionales de modelo tabular surgieron en la década de Es decir cuando el uso que se le daba a los sistemas computacionales era bastante diferente y los mismos se desplegaban y servían de manera centralizadaPero los tiempos cambiaron y la necesidad vino determinada por la globalización producto del acceso masivo a los mismos productos servicios y aplicaciones por parte de los usuarios de internet a nivel mundial Esta globalización exacerbóproblemas ya existentes pero menos relevantes como la latencia La latencia determina cuánto tiempo pasa desde que se inicia una petición hasta que se recibe una respuesta en un modelo cliente servidor Antes de que las nubes públicas y sus proveedores entraran en escena los despliegues se hacían en premisas es decir en las mismas premisas donde las empresas y organizaciones operaban sus negocios o en un centro de datos cercano Recordemos que todavía hay un enorme porcentaje de organizaciones que por motivos de seguridad o retraso en la adopción de sistemas en la nube siguen operando en premisas o como se conoce en inglés on prem ise Más adelante los centros de datos que se dedicaban a proveer y mantener infraestructuras y las redes necesarias fueron creciendo y distribuyéndose Finalmente el requerimiento de un mejor rendimiento menos latencia y de los controles de privacidad en forma de soberanía de datos por parte de países y regiones como puede ser GDPR en la Unión Europea definieron la descentralización y los modernos sistemas de distribución de datos Pero muchas veces aunque estos sistemas cachean datos en diversas regiones del globo es decir guardan una copia para servir más eficientemente a puntos distribuidos lo que se conoce como CDN siguen teniendo su nodo transaccional en un único punto ¿Quées el sharding Sharding es simplemente ese proceso de dividir grandes volumenes de datos en partes más pequeñas que se guardan generalmente en particiones físicas o virtuales diferentes Cualquier base de datos se puede dividir así pero es un proceso complicado que requiere toda una refactorización y reconfiguración de acuerdo a la nueva distribución Partir modelos tabulares de modo que podamos desplegar parte de la base de datos en una región de la nube por ejemplo y otra parte en otra región exige un diseño de sistema y una infraestructura realmente complejos Particularmente por cómo estádiseñado el modelo relacional para desacoplar datos a los que se accede de manera frecuente pero deben seguir relativos a otro u otros grupos de datos para conformar una entidad Partir modelos tabulares de modo que podamos desplegar parte de la misma base de datos en una región de la nube por ejemplo y otra parte en otra región exige un diseño de sistema y una infraestructura realmente complejos El modelo de documento simplifica la distribución de datosSin embargo el modelo documento propuso que todos los datos a los que se accede juntos se guardan juntos en un único documento Y aunque existen muchas excepciones a esa regla y formas de relacionar documentos en distintas colecciones a través de ciertos patrones de diseño es muy importante tener esta definición en cuenta a la hora de diseñar bases de datos de modelo de documento Una de las ventajas es que es mucho más simple dividir bases de datos en conjuntos de datos completamente diferentes siguiendo una estrategia de particionamiento si respetamos ese precepto En el caso de MongoDB además el proceso de sharding es nativo y se puede automatizar interviniendo en él otros procesos como el enrutado el auto balanceo etc Sharding si sharding noEl sharding de MongoDB no es en lo absoluto un proceso simple Es un proceso complejo que necesita una estrategia bien meditada para ser exitoso Una de las preguntas más importantes que debemos hacernos como con todos los procesos que implican una re estructuración de la arquitectura con un coste elevado es si realmente lo necesitamos Es importante tener en cuenta que en Cosmos DB por ejemplo el sistema estáparticionado por defecto en particiones pequeñas Hablaremos de esto en el siguiente post Para empezar es importante saber que el sharding en una base de datos MongoDB se recomienda solamente para volúmenes muy grandes de datos Pensemos en varios TB s de los mismos Generalmente el volumen recomendado estaráligado a la infraestructura donde corre el software y su capacidad del hardware que determina el rendimiento del motor a nivel escaneado compresión y cacheado Pero eso es tema para otro blog post Asíque prosigamos Incluso si nuestro volumen de datos comprimido estápor encima de los TB s recomendados en ese momento la primera pregunta que hay que hacerse antes de habilitar sharding tendráque ver con la arquitectura de nuestros datos y las politicas de retención de los mismos Es decir ¿realmente necesitamos tener en caliente todos los datos que guardamos Datos fríos y datos calientesUna de las definiciones más importantes que tiene que hacer una empresa en el momento en que empieza a brindar un servicio a usuarios a través de una aplicación es la política de retención de datos A nivel estrategia de negocio siempre serámás barato y por ende más ventajoso para nuestra empresa el definir claramente las expectativas y acuerdos de acceso a los datos por parte de nuestros usuarios Es decir imaginemos que somos una start up que recabamos datos a los que los usuarios acceden a través de nuestra aplicación o plataforma podemos definir que los usuarios tendrán acceso inmediato a los datos de menos de meses de edad en la base de datos y que deben esperar un poco más tiempo para obtener datos más antiguos Por un poco más de tiempo me refiero a algunos segundos en vez de nano o milisegundos Ese tipo de términos de uso son generalmente aceptados como normales por los usuarios y nos permiten mantener datos en caliente por menos tiempo es decir en un cluster de acceso inmediato mientras que los más antiguos de guardan en almacenamiento frío por ejemplo un data lake lago de datos Nunca lo he escuchado en español pero eso sería literalmente el nombre Los data lakes son almacenamientos en máquinas menos potentes y por lo tanto son más baratos y admiten volúmenes enormes de datos Múltiples clusters como alternativa al shardingOtra alternativa para volúmenes grandes de datos que deben estar en caliente de más fácil implementación y mantenimiento particularmente cuando se debe observar la soberanía de datos es la de desplegar bases de datos a través de diferentes clusters en vez de recurrir al sharding Quépasa en nuestra base de datos cuando la particionamos Ahora que ya hemos hablado de volúmenes mínimos de datos y de políticas de datos que nos permitan mover datos a almacenamientos más baratos y que ya hemos establecido que el sharding es un proceso caro a nivel complejidad de la implementación y mantenimiento hablemos del mecanismo de sharding en si El sharding es un proceso que reconfigura al driver para que la aplicación ignore que se estácomunicando con múltiples instancias de la base de datos y ejecuta un balanceo de cargas que mueve datos automáticamente entre las mismas El sharding es un proceso que reconfigura al driver para que la aplicación ignore que se estácomunicando con múltiples instancias de la base de datos y ejecuta un balanceo de cargas que mueve datos automáticamente entre las mismas de acuerdo a una estrategia predefinida Asícomo enfatizamos en que la replicación es una copia del mismo conjunto de datos que permite la redundancia de los mismos en varios nodos es importante recordar que cada shard o partición es si se siguen buenas prácticas un conjunto de réplicas en si Cada shard o partición es un conjunto de réplicas en sí Técnicamente es posible que cada shard sea un nodo único standalone pero recordemos que eso no es lo recomendadoEn un momento hablaremos de las estrategias de sharding que dependen de su clave de sharding La clave de sharding o sharding key es básicamente el campo que define cómo se separarán los datos y cómo se indexarán Antiguamente una vez se elegía una clave no se podía cambiar pero desde la versión de MongoDB se puede cambiar con un proceso de resharding Componentes de la arquitectura de shardingUna de las razones por las que el sharding es más caro de mantener es que requiere varios nodos adicionales al standalone o a las réplicas en el caso de que cada shard sea un conjunto de réplicas como se recomienda Vamos a suponer que tenemos shards de arquitectura PSS Uno de los shards va a ser el primario Además necesitaremos un nodo adicional que corra el proceso mongos También necesitaremos un servidor de configuración que también es un conjunto de réplicas ¡Con esta configuración y usando buenas practicas tenemos nada menos que nodos corriendo El proceso MongosEste proceso es un proceso de enrutado un router que mantiene una tabla de contenido de la base de datos que dirige las peticiones del cliente hacia el shard correcto y actúa como intermediario entre la aplicación y la base de datos particionada La arquitectura acabarásiendo como se ilustra en el diagrama anterior Cuando habilitamos sharding en una base de datos para una o varias colecciones debemos elegir la clave de shard que como decíamos no es más que un campo indexado de la colección en cuestión Voy a dedicar una entrada de blog a los índices indexes en la jerga de MongoDB no sépor qué pero el plural en este contexto es así‍ ️ La indexación es uno de los temas más complejos y difíciles de entender en lo que a MongoDB respecta ShardsCuando se inicia el proceso de sharding que por cierto es un proceso paulatino y asíncrono que puede tardar días y hasta semanas en completarse dependiendo del volumen de datos pero que no interfiere con el funcionamiento de la base de datos es decir se puede ejecutar en sistemas en producción sin problemas los datos de las colecciones afectadas se irán distribuyendo en forma de chunks del tamaño predeterminado a través de la cantidad de shards configurada Un cluster particionado siempre tiene además un shard primario que es el que guarda las colecciones que no están sujetas a partición ChunksDurante este proceso el sistema particionarálos datos en chunks o cachos muy gracioso pero no encuentro mejor traducción y los irádistribuyendo y redistribuyendo de manera balanceada a través de los shards Estos chunks deben de tener por convención un tamaño mínimo de MB No tiene sentido tener chunks de menos tamaño Recordar que el tamaño máximo de un documento MongoDB es MB El sharding es un proceso paulatino y asíncrono que puede tardar días y hasta semanas en completarse dependiendo del volumen de datos y no interfiere con el funcionamiento de la base de datos se puede ejecutar en sistemas en producción Consultas queries Las consultas que ejecutamos contra un sistema particionado son de dos tipos targeted queries vendría a ser como consultas objetivas y son las que contienen la clave de sharding y que pueden ser dirigidas por mongos al shard que contiene los datos relevantes Por otro lados las consultas que no contienen la clave se deben de mandar a todos los shards y se conocen como broadcast o scatter and gather algo asícomo desparramar reunir ya que son consultas que se lanzan o desparraman entre todos los shards para finalmente reunir los resultados Habilitando un sistema de shardingMientras que el sharding se habilita a nivel base de datos es importante entender que el mismo se ejecuta a nivel de colección Más abajo describo algunos métodos Podemos utilizar la clase ShardingTest del servidor de MongoDB que instalamos con la versión Community para crear un cluster de prueba Es una clase que se usa internamente para hacer pruebas de sharding pero que estáexpuesta para uso externo Podemos ver la implementación aquí Lo primero que hacemos es inicializar la consola de mongomongo nodb norccon los parametros nodb y norc para no inicializar una base de datos ni la evaluación de JavaScript Luego podemos crear un par de shards de test asítestdesharding ShardingTest name TestdeSharding shards chunkSize Nota Si esta clase nos da un error de boost relativo a la no existencia de la ruta data db se la podemos pasar al task runner asíMongoRunner datapath mi ruta es tu ruta data path hay gente que va a entender la referencia y otra que no jaja Hay muchísimas más opciones de configuración que podemos pasar a la hora de crear nuestro cluster de test que están descritas a partir de la línea del script Entre ellas encontramos name nombre del cluster shards número de shards rs al que podemos pasar un objeto de configuración para cada conjunto de replica como cantidad de nodos y tamaño del oplog mongos número de mongos que se correrán chunkSize el tamaño de cada chunk enableBalancer si habilitamos el load balancer por defecto enableAutoSplit si habilitamos la auto partición etcCuando ejecutamos esta clase de test creamos un cluster y se inicializan los procesos necesarios incluyendo mongos y los conjuntos de réplica configurados asícomo el servidor de configuración Una vez creado el cluster podemos probar los métodos de sharding que se describen en la documentación oficial del software También podremos experimentar con las diversas estrategias de sharding Por defecto el proceso mongos corre en el puerto pero se puede reconfigurar Para experimentar abrimos otra ventana o pestaña de la terminal donde podemos crear una base de datos e importar o crear algunos datos para poder experimentar Esto es solamente para hacer pruebas y aprender Si fuéramos a habilitar un sistema de sharding de MongoDB real deberíamos seguir el proceso que se describe aquí Básicamente deberíamos inicializar todos los nodos por separados primero que nada un conjunto de réplicas para el servidor de configuración que se inicializa con el parámetro configsvr siempre antes que el proceso mongos Otro nodo para mongos que se inicializa con el comando mongos y el parámetro configdb al que se pasan los datos de los servidores de configuración Finalmente conectamos al que seráel shard primario asígnandole el rol a cada miembro con la opción shardsvr lo que deberemos repetir con cuantos nodos decidamos tener para los conjuntos de réplicas que conformaran cada shard Una vez tenemos todos los nodos activos se pueden agregar al cluster de sharding manualmente con el comandosh addShard réplica set path puerto al que pasamos cada réplica set individualmente Habilitar el proceso de distribución de datosUna vez tenemos todo configurado debemos habilitar manualmente el sharding para la base de datos sh enableSharding nombre base de datos y seguidamente particionamos las colecciones que decidamossh shardCollection nombre base de datos nombre colección clave de partición donde clave de partición es la clave elegida o sea un campo indexado de la colección Estrategias de shardingComo comentaba anteriormente la forma más eficiente de distribuir nuestros datos a través de múltiples shards va a determinarse por medio de una estrategia de partición La estrategia de hashLa estrategia de hashing es la más eficiente a la hora de distribuir datos de manera balanceada Los datos se distribuyen de manera aleatoria asegurándose que hay el mismo volumen de datos en cada partición Es la estrategia ideal cuando la intención es liberar espacio de disco y asegurarnos que los datos se distribuyen de manera equitativa La estrategia de rangoEsta estrategia es la más eficiente para distribuir datos de acuerdo a ciertos rangos Por ejemplo si estamos distribuyendo usuarios los podemos distribuir en el rango de la A a la I de la J a la Q y de la R a la Z de acuerdo con la primera letra de su apellido Una desventaja de la distribución por rango es la baja cardinalidad hablaremos de cardinalidad cuando hablemos de indices pero básicamente como habrán muchos apellidos con ciertas letras y muy pocos con otras serádifícil garantizar el buen balance La estrategia de zonasFinalmente podemos segmentar los datos ya distribuidos por zonas Las zonas pueden venir determinadas por el data locale lo que permitiría distribuir geográficamente o por otra variable En el caso de usar la estrategia para distribuir geográficamente un shard que se encuentre desplegado en cierta región del mundo guardarálos datos de los usuarios que pertenecen a esa región Esta estrategia nos ayuda a cumplir con políticas de protección de datos por ejemplo pero al igual que la estrategia de rangos puede incurrir en un desequilibrio de las particiones En el próximo postLa próxima entrada serámás corta e intentaréexplicar sobre todo Sharding en ProducciónParticionamiento en CosmosDB y como difiere con MongoDBA prestar atención 2022-07-15 12:30:38
海外TECH DEV Community Alerting system and product metrics tracking: benefits for the product owner https://dev.to/daiquiri_team/alerting-system-and-product-metrics-tracking-benefits-for-the-product-owner-ag9 Alerting system and product metrics tracking benefits for the product ownerMy name is Zhenya Kosmak and I wrote this article describing my experience as a Technical Product Manager You can connect with me on LinkedIn if you want to discuss your project or anything related to this article And I will be glad to share with you some pieces of advice If your development team spent several thousand hours on your product and it s already in production the issue of its stability is already quite significant All services on the servers should work stable and if there is a critical problem somewhere ーthe development team should figure it out and start fixing it In this article we ll talk about our experience setting up a Calibra alerting system In this case we have managed not only to ensure the technical stability of the product but also to optimize costs and improve our client s processes This article is a part of the cycle Alerting system why it s necessary both for developers and product owners This article confers our arguments on why you should track vital metrics with alerting tools and how this aids a product owner To make understanding the problems we solved easier we need to tell the essentials around the product Calibra is a BPMS i e a system that covers most of our client s workflows The client s company managed numerous advertising campaigns for their clients in their interests The client s company earned from each lead they brought Calibra managed the accounts from which the ad was launched contained all advertising settings automatically changed the ads collected statistics on the effectiveness of advertising and much more Let s start with an example how client company may lose money without monitoring How our alerting system worked all in allWe collected metrics on each server of the system using versatile tools Each metric was sent to the centralized storage We called any unexpected situation event to alert It has the date and time of beginning when the issue happened and its end when the issue was resolved We used centralized settings for sending notifications for such events When something wrong happened we sent a message to the channel on Slack Same thing when the situation is resolved As a result the client stayed informed about the product s problems And by this we mean not just technical issues but also the problems of the client s business as such Tracking critical product metricsOne of the product s subsystems was especially financially important for our client This subsystem provided the sending of lead data to the advertising platforms With this data advertising platforms have optimized the audience targeting so that the effectiveness of advertising increased significantly The integration between marketing platforms and our product was a complex one for a bunch of reasons Google Ads and Meta Ads are different in the sense of gathering information and have various bugs on their side We spent dozens of hours talking with them figuring out those issues Each lead event must be saved on our side for sure before being sent to the platform side If we break any subsystem any server crashes anything else ーwe shouldn t lose any lead So we developed a separate microservice that received all the lead events Every lead event was sent to the main DB to be shown on the statistic pages of our product Marketing managers used this metric on each ad to track its efficiency If any part of lead event information was corrupt for example the type of event was malformed we didn t send it to the platform and logged it for further investigation As follows we had multiple points at which our system might break On the other hand we have already had several precedents for the failure of this process and in most cases not for reasons within our product Calibra Our client used a few third party products to filter the bot s traffic settings for gathering lead information might be set incorrectly on the ad s settings etc Each part of this system might cause lower performance of advertising This little simplified illustration shows the scale So having the whole set of correctly sent lead events we decided to alert when we haven t as many lead events as we expected Thus if too few leads were received we could alert this to fix it as quickly as possible optimizing the client s advertising costs as much as possible As a result it looked like this If in hour there are no leads for a group of advertising campaigns this is a problem in which case the alert arrives We created a checklist of typical problems on our side covering cases If this is not our problem the client has to solve it We have checked all these situations using a checklist after a Slack notification After checking we called the client s team members in the Slack thread informing them of the problem on their side As a result we solve some of the client s problems by informing them timely and when they must act At the same time we are more likely to notice product problems that we can solve on our own Bottom lineWe developed a relatively mature monitoring system for the early stage product It might look like an over kill but stories like this confirm the opposite Problems like you ve read above are waiting for you all the time And you need a customizable solution to be ready In this case only you will be sure that CEO level product metrics are on track So yeah this is the only and the definite reason why product owner needs an alerting system Some metrics matter a lot You need to maintain the product in a way to fit their expected values Just because it saves money If you need something similar on your product we will discuss it with pleasure link to our website Stay tuned for the new articles 2022-07-15 12:24:06
海外TECH DEV Community AWS EKS — DEEP DIVE https://dev.to/rupeshj845/aws-eks-deep-dive-1b81 AWS EKS ーDEEP DIVE️What is Amazon EKS Amazon Elastic Kubernetes Service Amazon EKS is a managed service that you can use to run Kubernetes on AWS without needing to install operate and maintain your own Kubernetes control plane or nodes Kubernetes is an open source system for automating the deployment scaling and management of containerized applications Amazon EKS Automatically scales control plane instances based on load detects and replaces unhealthy control plane instances and it provides automated version updates and patching for them •Is integrated with many AWS services to provide scalability and security for your applications including the following capabilities •Amazon ECR for container images•Elastic Load Balancing for load distribution•IAM for authentication ️How does Amazon EKS work ️Getting started with Amazon EKS is easy Create an Amazon EKS cluster in the AWS Management Console or with the AWS CLI or one of the AWS SDKs Launch managed or self managed Amazon EC nodes or deploy your workloads to AWS Fargate When your cluster is ready you can configure your favorite Kubernetes tools such as kubectl to communicate with your cluster Deploy and manage workloads on your Amazon EKS cluster the same way that you would with any other Kubernetes environment ️Management Console and AWS CLI ️To create your clusterCreate an Amazon VPC with public and private subnets that meets Amazon EKS requirements aws cloudformation create stack ーregion ap south ーstack name my eks stack ーtemplate url cloudformation amazon eks vpc private subnets yamlCreate a cluster IAM role and attach the required Amazon EKS IAM managed policy to it Kubernetes clusters managed by Amazon EKS make calls to other AWS services on your behalf to manage the resources that you use with the service a Copy the following contents to a file named cluster role trust policy json “Version “ “Statement “Effect “Allow “Principal “Service “eks amazonaws com “Action “sts AssumeRole b Create the role aws iam create role ーrole name myAmazonEKSClusterRole ーassume role policy document file cluster role trust policy json c Attach the required Amazon EKS managed IAM policy to the role aws iam attach role policy ーpolicy arn arn aws iam aws policy AmazonEKSClusterPolicy ーrole name myAmazonEKSClusterRoleOpen the Amazon EKS console Step Configure cluster communicationChoose Add cluster and then choose Create If you don t see this option then choose Clusters in the left navigation pane first On the Configure cluster page do the following Enter a Name for your cluster such as my cluster For Cluster Service Role choose myAmazonEKSClusterRole Leave the remaining settings at their default values and choose Next On the Specify networking page do the following Choose the ID of the VPC that you created in a previous step from the VPC dropdown list It is something like vpc xxxx my eks vpc stack VPC Leave the remaining settings at their default values and choose Next On the Configure logging page choose Next On the Review and create page choose Create ️Step Configure your computer to communicate with your cluster In this section you create a kubeconfig file for your cluster The settings in this file enable the kubectl CLI to communicate with your cluster To configure your computer to communicate with your cluster Create or update a kubeconfig file for your cluster aws eks update kubeconfig ーregion ap south ーname my clusterTest your configuration kubectl get svc️Create nodesFargate ーLinux ーChoose this type of node if you want to run Linux applications on AWS Fargate Fargate is a serverless compute engine that lets you deploy Kubernetes pods without managing Amazon EC instances •Managed nodes ーLinux ーChoose this type of node if you want to run Amazon Linux applications on Amazon EC instances To create a Fargate profileCreate an IAM role and attach the required Amazon EKS IAM managed policy to it The Amazon EKS pod execution role provides the IAM permissions to do this a Copy the following contents to a file named pod execution role trustpolicy json “Version “ “Statement “Effect “Allow “Condition “ArnLike “aws SourceArn “arn aws eks regioncode fargateprofile my cluster “Principal “Service “eks fargate pods amazonaws com “Action “sts AssumeRole b Create a pod execution IAM role aws iam create role ーrole name AmazonEKSFargatePodExecutionRole ーassume role policy document file pod execution role trust policy json c Attach the required Amazon EKS managed IAM policy to the role aws iam attach role policy ーpolicy arn arn aws iam aws policy AmazonEKSFargatePodExecutionRolePolicy ーrole name AmazonEKSFargatePodExecutionRoleOpen the Amazon EKS console On the Clusters page choose the my cluster cluster On the my cluster page do the following a Choose the Compute tab b Under Fargate Profiles choose Add Fargate Profile On the Configure Fargate Profile page do the following a For Name enter a unique name for your Fargate profile such as my profile b For Pod execution role choose the AmazonEKSFargatePodExecutionRole that you created in a previous step c Choose the Subnets dropdown and deselect any subnet with Public in its name Only private subnets are supported for pods that are running on Fargate d Choose Next On the Configure pod selection page do the following a For Namespace enter default b Choose Next On the Review and create page review the information for your Fargate profile and choose Create After a few minutes the Status in the Fargate Profile configuration section will change from Creating to Active Don t continue to the next step until the status is Active If you plan to deploy all pods to Fargate none to Amazon EC nodes do the following to create another Fargate profile and run the default name resolver CoreDNS on Fargate ️Amazon EC Linux managed node groupTo create your Amazon EC Linux managed node groupCreate a node IAM role and attach the required Amazon EKS IAM managed policy to it Nodes receive permissions for these API calls through an IAM instance profile and associated policies a Copy the following contents to a file named node role trust policy json “Version “ “Statement “Effect “Allow “Principal “Service “ec amazonaws com “Action “sts AssumeRole b Create the node IAM role aws iam create role ーrole name myAmazonEKSNodeRole ーassume role policy document file node role trust policy json c Attach the required managed IAM policies to the role aws iam attach role policy ーpolicy arn arn aws iam aws policy AmazonEKSWorkerNodePolicy ーrole name myAmazonEKSNodeRole️aws iam attach role policy ーpolicy arn arn aws iam aws policy AmazonECContainerRegistryReadOnly ーrole name myAmazonEKSNodeRoleaws iam attach role policy ーpolicy arn arn aws iam aws policy AmazonEKS CNI Policy ーrole name myAmazonEKSNodeRoleOpen the Amazon EKS console at clusters Choose the name of the cluster that you created in Step Create your Amazon EKS cluster such as my cluster On the my cluster page do the following a Choose the Compute tab b Choose Add Node Group On the Configure Node Group page do the following a For Name enter a unique name for your managed node group such as my nodegroup b For Node IAM role name choose myAmazonEKSNodeRole role that you created in a previous step We recommend that each node group use its own unique IAM role c Choose Next On the Set compute and scaling configuration page accept the default values and choose Next On the Specify networking page accept the default values and choose Next On the Review and create page review your managed node group configuration and choose Create After several minutes the Status in the Node Group configuration section will change from Creating to Active Don t continue to the next step until the status is Active THANK YOU Keep Learning Keep Sharing 2022-07-15 12:03:32
Apple AppleInsider - Frontpage News LG UltraWide 40WP95C-W Thunderbolt Display review: A curved display with plenty of space https://appleinsider.com/articles/22/07/15/lg-ultrawide-40wp95c-w-thunderbolt-display-review-a-curved-display-with-plenty-of-space?utm_medium=rss LG UltraWide WPC W Thunderbolt Display review A curved display with plenty of spaceThe LG UltraWide WPC W is an exceptional curved Thunderbolt Display that provides valuable screen space to Mac users LG curved ultra wide Thunderbolt DisplaySpecifications Read more 2022-07-15 12:34:12
海外TECH Engadget Engadget Podcast: MacBook Air M2 review, Apple betas and NASA’s space pics https://www.engadget.com/engadget-podcast-macbook-air-m2-review-ios-16-macos-ventura-watchos-9-beta-james-webb-space-telescope-123037046.html?src=rss Engadget Podcast MacBook Air M review Apple betas and NASA s space picsThis week on the show Cherlynn and Devindra dive into Apple s new MacBook Air M and its recent batch of OS betas It turns out a redesign and a whole new chip makes the MacBook Air even more compelling than before at least more than the inch MacBook Pro Also we chat with Lisa Grossman Astronomy Writer at Science News about the astounding new photos and data from the James Webb Space Telescope It s a clear upgrade from Hubble and NASA is just getting started Listen below or subscribe on your podcast app of choice If you ve got suggestions or topics you d like covered on the show be sure to email us or drop a note in the comments And be sure to check out our other podcasts the Morning After and Engadget News Engadget ·MacBook Air M review Apple betas and James Webb s space picsSubscribe iTunesSpotifyPocket CastsStitcherGoogle PodcastsTopicsApple s M MacBook Air is very good There s lots of fun stuff to explore in the iOS beta Stage Manager in MacOS Ventura is a step forward for window organization What s new in the watchOS beta New pictures confirm the James Webb Space Telescope will revolutionize astronomy Elon Musk is trying to back out of his Twitter deal after three whole months Our Nothing Phone hands on Listener Mail A phishing test for employees at Lowe s Working on Pop culture picks Video StreamCreditsHosts Cherlynn Low and Devindra HardawarGuest Lisa GrossmanProducer Ben EllmanMusic Dale North and Terrence O Brien 2022-07-15 12:30:37
海外TECH CodeProject Latest Articles C# DataAdapter returning Exception “Failed to enable constraints.” https://www.codeproject.com/Tips/5337324/Csharp-DataAdapter-returning-Exception-Failed-to-e constraints 2022-07-15 12:09:00
海外科学 NYT > Science Bat Virus Studies Raise Questions About Laboratory Tinkering https://www.nytimes.com/2022/07/15/science/bat-coronavirus-laboratory-experiments.html covid 2022-07-15 12:16:47
海外科学 NYT > Science Scientists Marvel at NASA Webb Telescope’s New Views of the Cosmos https://www.nytimes.com/live/2022/07/12/science/webb-telescope-images-nasa observatory 2022-07-15 12:46:49
海外科学 NYT > Science Biggest Cryptominers in the U.S. Use as Much Power as Houston, Findings Show https://www.nytimes.com/2022/07/15/climate/cryptocurrency-bitcoin-mining-electricity.html Biggest Cryptominers in the U S Use as Much Power as Houston Findings ShowThe findings by a congressional investigation highlight how the surge in activity has caused consumers electrical bills to rise and makes it harder to fight global warming 2022-07-15 12:36:12
金融 RSS FILE - 日本証券業協会 新型コロナウイルス感染症への証券関係機関等・各証券会社の対応について(リンク集) https://www.jsda.or.jp/shinchaku/coronavirus/link.html 新型コロナウイルス 2022-07-15 13:00:00
ニュース @日本経済新聞 電子版 超少子化はすなわち超高齢化。量的な「消費破壊」が起きそうな事態をどうすれば防げるのか。セブンイレブン、バンダイナムコとタカラトミー、花王…。それぞれの戦略や「解」を考察します。 @nikkei_opinion https://t.co/NlQhXSJ32A https://twitter.com/nikkei/statuses/1547923949484290053 超少子化はすなわち超高齢化。 2022-07-15 12:40:03
ニュース @日本経済新聞 電子版 ライオンズ、始球式の投球権 映像付きで販売 https://t.co/3JeDWeXj8e https://twitter.com/nikkei/statuses/1547921484646977537 映像 2022-07-15 12:30:15
ニュース @日本経済新聞 電子版 中国の16~24歳の若年失業率は6月に19.3%と最高を更新。大卒でも希望の職につけず、就活に悲観論が広がっています。なかには博士課程に進学して学歴に箔を付け、「時間稼ぎ」する学生も増えています。 https://t.co/GYIN6Rv0KV https://twitter.com/nikkei/statuses/1547918920291520514 中国の歳の若年失業率は月にと最高を更新。 2022-07-15 12:20:04
ニュース @日本経済新聞 電子版 HOYA鈴木氏は5.2倍 1~6月退任社長の在任中時価総額 https://t.co/FwN1nLLhPR https://twitter.com/nikkei/statuses/1547917556459372544 時価総額 2022-07-15 12:14:39
ニュース @日本経済新聞 電子版 米、サウジと関係悪化に歯止め 原油増産に期待 https://t.co/2w5lVXATOC https://twitter.com/nikkei/statuses/1547916077752991750 関係悪化 2022-07-15 12:08:46
ニュース BBC News - Home Heatwave: National emergency declared after first red extreme heat warning https://www.bbc.co.uk/news/uk-62177458?at_medium=RSS&at_campaign=KARANGA contingency 2022-07-15 12:39:58
ニュース BBC News - Home Archie Battersbee: Court rules life-support can end https://www.bbc.co.uk/news/uk-england-essex-62175556?at_medium=RSS&at_campaign=KARANGA family 2022-07-15 12:02:12
ニュース BBC News - Home Woman, 24, dies after north Wales paddleboard rescue https://www.bbc.co.uk/news/uk-wales-62176522?at_medium=RSS&at_campaign=KARANGA conwy 2022-07-15 12:55:49
ニュース BBC News - Home Channel 4 rejects Nadine Dorries' Tower Block of Commons fakery claim https://www.bbc.co.uk/news/entertainment-arts-62178278?at_medium=RSS&at_campaign=KARANGA commons 2022-07-15 12:30:02
ニュース BBC News - Home Drone footage shows seal trying to hide from orca hunt https://www.bbc.co.uk/news/uk-scotland-62180180?at_medium=RSS&at_campaign=KARANGA drone 2022-07-15 12:44:30
ニュース BBC News - Home Forced adoptions: Call for government apology to mothers https://www.bbc.co.uk/news/uk-62172101?at_medium=RSS&at_campaign=KARANGA apology 2022-07-15 12:10:43
ニュース BBC News - Home Sarina Wiegman: England manager tests positive for Covid https://www.bbc.co.uk/sport/football/62181796?at_medium=RSS&at_campaign=KARANGA ireland 2022-07-15 12:46:56
北海道 北海道新聞 第7波、旭川は微増 コロナ新規63人 市「対策徹底を」 https://www.hokkaido-np.co.jp/article/706388/ 新型コロナウイルス 2022-07-15 21:39:00
北海道 北海道新聞 キエフ・バレエが日本で公演 全国16都市、ロ侵攻後は海外初 https://www.hokkaido-np.co.jp/article/706387/ 都市 2022-07-15 21:37:00
北海道 北海道新聞 帯広大谷短大、看護学科新設 医療実習に最新機器 教育課程概要まとまる https://www.hokkaido-np.co.jp/article/706386/ 教育課程 2022-07-15 21:34:00
北海道 北海道新聞 飲食店限定、十勝ワイン 漫画家横山さんがラベル 20日から提供 https://www.hokkaido-np.co.jp/article/706385/ 十勝ワイン 2022-07-15 21:33:00
北海道 北海道新聞 道南勢、入念に守備確認 高校野球南大会 開幕前に公式練習 https://www.hokkaido-np.co.jp/article/706382/ 全国高校野球選手権 2022-07-15 21:29:00
北海道 北海道新聞 硬貨製造、過去最低の枚数に キャッシュレス決済が浸透 https://www.hokkaido-np.co.jp/article/706383/ 過去最低 2022-07-15 21:29:00
北海道 北海道新聞 水も滴る、6色の浮き紫陽花 松前公園に3千本 フォトコンも初実施 https://www.hokkaido-np.co.jp/article/706381/ 松前公園 2022-07-15 21:28:00
北海道 北海道新聞 釧路管内49人感染 根室は32人 新型コロナ https://www.hokkaido-np.co.jp/article/706380/ 根室管内 2022-07-15 21:24:00
北海道 北海道新聞 胆振管内78人感染 日高管内11人 新型コロナ https://www.hokkaido-np.co.jp/article/706379/ 新型コロナウイルス 2022-07-15 21:23:00
北海道 北海道新聞 ウポポイ園内案内、地域とつなぐ 白老ガイドセンター、観光客の入場券手配 https://www.hokkaido-np.co.jp/article/706378/ 観光ガイド 2022-07-15 21:22:00
北海道 北海道新聞 リトグリ、2人が卒業へ 体調不良で活動休止中 https://www.hokkaido-np.co.jp/article/706377/ littlegleemonst 2022-07-15 21:19:00
北海道 北海道新聞 北後志の魅力、ウイングベイで発信 赤井川・国際リゾート推進協が案内所 https://www.hokkaido-np.co.jp/article/706376/ 小樽市築港 2022-07-15 21:18:00
北海道 北海道新聞 グランピング快適さ追求 留寿都で16日開業 キッチンなど連結 https://www.hokkaido-np.co.jp/article/706375/ 開業 2022-07-15 21:16:00
北海道 北海道新聞 空知管内55人感染 新型コロナ https://www.hokkaido-np.co.jp/article/706372/ 新型コロナウイルス 2022-07-15 21:08:00
北海道 北海道新聞 本橋さん「交通安全呼び掛けたい」 安全・安心広報大使に 道警北本が委嘱 https://www.hokkaido-np.co.jp/article/706371/ 交通安全 2022-07-15 21:07:00
北海道 北海道新聞 オホーツク管内39人感染 新型コロナ https://www.hokkaido-np.co.jp/article/706370/ 新型コロナウイルス 2022-07-15 21:06:00

コメント

このブログの人気の投稿

投稿時間:2021-06-17 05:05:34 RSSフィード2021-06-17 05:00 分まとめ(1274件)

投稿時間:2021-06-20 02:06:12 RSSフィード2021-06-20 02:00 分まとめ(3871件)

投稿時間:2020-12-01 09:41:49 RSSフィード2020-12-01 09:00 分まとめ(69件)