投稿時間:2022-11-25 20:31:41 RSSフィード2022-11-25 20:00 分まとめ(33件)

カテゴリー等 サイト名等 記事タイトル・トレンドワード等 リンクURL 頻出ワード・要約等/検索ボリューム 登録日
IT 情報システムリーダーのためのIT情報専門サイト IT Leaders HPE日本、エクサスケールのスパコンを24%小型化した「HPE Cray EX2500」を発表 | IT Leaders https://it.impress.co.jp/articles/-/24098 HPE日本、エクサスケールのスパコンを小型化した「HPECrayEX」を発表ITLeadersヒューレット・パッカードエンタープライズHPE日本ヒューレット・パッカードは年月日、小型スーパーコンピュータシステム「HPECrayEX」を発表した。 2022-11-25 19:25:00
AWS AWS Japan Blog スマートストア分析 : 収益性の高い小売インサイトを生み出す https://aws.amazon.com/jp/blogs/news/smart-store-analytics-creating-profitable-retail-insights/ 高い 2022-11-25 10:32:41
python Pythonタグが付けられた新着投稿 - Qiita Pythonで中学方程式の計算 https://qiita.com/akiba_burari/items/d185a2224c7bb87e5cdf 計算 2022-11-25 19:49:49
python Pythonタグが付けられた新着投稿 - Qiita Flask スクレイピングアプリ〜Python とHTML を繋げる。〜 https://qiita.com/sasao-genmaicha/items/0234f7ac12bbd54c2602 flask 2022-11-25 19:48:43
js JavaScriptタグが付けられた新着投稿 - Qiita class名やid名指定でaddEventListenerを処理させる方法 https://qiita.com/yuta-10112022/items/7dc54002ae1d4573ba29 addeventlistener 2022-11-25 19:03:55
Ruby Rubyタグが付けられた新着投稿 - Qiita 特定条件のみに呼応するプログラム作成 https://qiita.com/nktyn_frtn0906/items/3228d748b138a177e1f3 記述 2022-11-25 19:49:49
Ruby Rubyタグが付けられた新着投稿 - Qiita ruby in1to10 真偽値 https://qiita.com/nktyn_frtn0906/items/54b45a03c4cd6b109dbb outsidemode 2022-11-25 19:36:19
技術ブログ Mercari Engineering Blog メルカリShops インターン生の日常 https://engineering.mercari.com/blog/entry/20221115-mercari-shops-intern/ hellip 2022-11-25 10:00:55
技術ブログ Developers.IO Proactive Campaignsを使ったメールの一斉送信についてまとめてみた https://dev.classmethod.jp/articles/subaru-zendesk8/ proactivecampaigns 2022-11-25 10:06:03
海外TECH MakeUseOf Black Friday: Best Keyboard Deals https://www.makeuseof.com/black-friday-best-keyboard-deals/ black 2022-11-25 10:21:16
海外TECH DEV Community Golang Reverse Proxy Practices https://dev.to/llance_24/golang-reverse-proxy-practices-36od Golang Reverse Proxy Practices HertzHertz is an ultra large scale enterprise level microservice HTTP framework featuring high ease of use easy expansion and low latency etc Hertz uses the self developed high performance network library Netpoll by default In some special scenarios Hertz has certain advantages in QPS and latency compared to go net In internal practice some typical services such as services with a high proportion of frameworks gateways and other services after migrating to Hertz compared to the Gin framework the resource usage is significantly reduced CPU usage is reduced by with the size of the traffic For more details see cloudwego hertz Reverse proxyIn computer networks a reverse proxy is an application that sits in front of back end applications and forwards client e g browser requests to those applications Reverse proxies help increase scalability performance resilience and security The resources returned to the client appear as if they originated from the web server itself Using reverse proxy in HertzUsing a reverse proxy with Hertz requires pulling the reverseproxy extension provided by the community go get github com hertz contrib reverseproxy Basic usingpackage mainimport context github com cloudwego hertz pkg app github com cloudwego hertz pkg app server github com cloudwego hertz pkg common utils github com hertz contrib reverseproxy func main h server Default server WithHostPorts proxy err reverseproxy NewSingleHostReverseProxy proxy if err nil panic err h GET proxy backend func cc context Context c app RequestContext c JSON utils H msg proxy success h GET backend proxy ServeHTTP h Spin We set the target path of the reverse proxy proxy through the NewSingleHostReverseProxy function Next the path of the registered route is the sub path proxy backend of the target path of the reverse proxy and finally the reverse proxy service proxy ServeHTTP is mapped by registering backend In this way when we access backend through the GET method we will access the content in proxy backend curl backend msg proxy success Custom configurationOf course the extension is not only able to implement a simple reverse proxy there are many customizable options provided in the reverseproxy extension MethodDescriptionSetDirectoruse to customize protocol RequestSetClientuse to customize clientSetModifyResponseuse to customize modify response functionSetErrorHandleruse to customize error handler SetDirector amp SetClientWe practice using SetDirector and SetClient by implementing a simple service registration discovery Serverpackage mainimport context github com cloudwego hertz pkg app github com cloudwego hertz pkg app server github com cloudwego hertz pkg app server registry github com cloudwego hertz pkg common utils github com cloudwego hertz pkg protocol consts github com hertz contrib registry nacos func main addr r nacos NewDefaultNacosRegistry h server Default server WithHostPorts addr server WithRegistry r amp registry Info ServiceName demo hertz contrib reverseproxy Addr utils NewNetAddr tcp addr Weight h GET backend func cc context Context c app RequestContext c JSON consts StatusOK utils H ping pong h Spin The sample code on the server side in the hertz contrib registry extension is used here Since this is not the main content of this article it will not be expanded For more information you can Go to the registry repository Clientpackage mainimport github com cloudwego hertz pkg app client github com cloudwego hertz pkg app middlewares client sd github com cloudwego hertz pkg app server github com cloudwego hertz pkg common config github com cloudwego hertz pkg protocol github com hertz contrib registry nacos github com hertz contrib reverseproxy func main cli err client NewClient if err nil panic err r err nacos NewDefaultNacosResolver if err nil panic err cli Use sd Discovery r h server New server WithHostPorts proxy reverseproxy NewSingleHostReverseProxy proxy SetClient cli proxy SetDirector func req protocol Request req SetRequestURI string reverseproxy JoinURLPath req proxy Target req Header SetHostBytes req URI Host req Options Apply config RequestOption config WithSD true h GET backend proxy ServeHTTP h Spin In the Client section we used a reverse proxy for service discovery First specify the client using the service discovery middleware as our forwarding client through SetClient and then use SetDirector to specify our protocol Request and configure the use of service discovery in the new Request SetModifyResponse amp SetErrorHandlerSetModifyResponse and SetErrorHandler respectively set the response from the backend and the handling of errors arriving in the backend SetModifyResponse is actually modifyResponse in the reverse proxy extension If the backend returns any response no matter what the status code is this method will be called If the modifyResponse method returns an error the errorHandler method will be called with the error as an argument SetModifyResponsepackage mainimport github com cloudwego hertz pkg app server github com cloudwego hertz pkg protocol github com hertz contrib reverseproxy func main h server Default server WithHostPorts modify response proxy reverseproxy NewSingleHostReverseProxy proxy proxy SetModifyResponse func resp protocol Response error resp SetStatusCode resp SetBodyRaw byte change response success return nil h GET modifyResponse proxy ServeHTTP h Spin Here modifyResponse is modified by SetModifyResponse to change the processing content of the response Testcurl modifyResponsechange response success SetErrorHandlerpackage mainimport context github com cloudwego hertz pkg app github com cloudwego hertz pkg app server github com cloudwego hertz pkg common utils github com hertz contrib reverseproxy func main h server Default server WithHostPorts proxy err reverseproxy NewSingleHostReverseProxy proxy if err nil panic err proxy SetErrorHandler func c app RequestContext err error c Response SetStatusCode c String fake not found h GET proxy backend func cc context Context c app RequestContext c JSON utils H msg proxy success h GET backend proxy ServeHTTP h Spin We use SetErrorHandler to specify how to handle errors that arrive in the background When an error arrives in the background or there is an error from modifyResponse the specified processing logic will be run Testcurl backendfake not found Middleware usageIn addition to basic use Hertz reverse proxy also supports use in middleware package mainimport context github com cloudwego hertz pkg app github com cloudwego hertz pkg app server github com cloudwego hertz pkg common utils github com hertz contrib reverseproxy func main r server Default server WithHostPorts r server Default server WithHostPorts proxy err reverseproxy NewSingleHostReverseProxy if err nil panic err r Use func c context Context ctx app RequestContext if ctx Query country cn proxy ServeHTTP c ctx ctx Response Header Set key value ctx Abort else ctx Next c r GET backend func c context Context ctx app RequestContext ctx JSON utils H message pong r GET backend func c context Context ctx app RequestContext ctx JSON utils H message pong go r Spin r Spin In this example code two Hertz instances are initialized first then NewSingleHostReverseProxy is used to set the reverse proxy target to port and finally two routes with the same path are registered for the two instances respectively Testcurl backend message pong curl backend message pong The main part of this code is the middleware usage part We use the middleware through Use In the middleware logic when the logic of ctx Query country cn is established call proxy ServeHTTP c ctx uses a reverse proxy and when you request backend through instance r it will request the content of the reverse proxy target port Testcurl backend country cn message pong TipsFor NewSingleHostReverseProxy function if no config ClientOption is passed it will use the default global client Client instance When passing config ClientOption it will initialize a local client Client instance Using ReverseProxy SetClient if there is need for shared customized client Client instance The reverse proxy resets the header of the response any such modifications before the request is made will be discarded Referencecloudwego hertzcloudwego hertz exampleshertz contrib reverseproxy 2022-11-25 10:29:29
海外TECH DEV Community Creating Tinder like card feature with Android Compose https://dev.to/ethand91/creating-tinder-like-card-feature-with-android-compose-4ep0 Creating Tinder like card feature with Android Compose IntroductionHello In this tutorial I will be showing you how to create the card swipe feature that apps like Tinder are using The final product will be something like this the user is able to either swipe via drag or press the like dislike button to do the work for them Importing the required librariesFirst create an empty android compose project if you don t know how please refer to my other tutorials Next we need to import a couple of extra libraries open up your app s build gradle file and add the following dependencies implementation androidx constraintlayout constraintlayout compose implementation io coil kt coil compose We will be using the ConstraintLayout and coil will be needed so we can use AsyncImage Creating the componentsNext we will need two components the CardStackController and the actual CardStack create a new package called components and create a new CardStackController file In the CardStackController file import the following import androidx compose animation core Animatable import androidx compose animation core AnimationSpec import androidx compose foundation gestures detectDragGestures import androidx compose material ExperimentalMaterialApi import androidx compose material SwipeableDefaults import androidx compose material ThresholdConfig import androidx compose runtime Composable import androidx compose runtime remember import androidx compose runtime rememberCoroutineScope import androidx compose ui ExperimentalComposeUiApi import androidx compose ui Modifier import androidx compose ui composed import androidx compose ui geometry Offset import androidx compose ui input pointer pointerInput import androidx compose ui platform LocalConfiguration import androidx compose ui platform LocalDensity import androidx compose ui unit Dp import androidx compose ui unit dp import kotlinx coroutines CoroutineScope import kotlinx coroutines launch import kotlin math abs import kotlin math signNext we need to create the CardStackController composable open class CardStackController val scope CoroutineScope private val screenWidth Float internal val animationSpec AnimationSpec lt Float gt SwipeableDefaults AnimationSpec val right Offset screenWidth f val left Offset screenWidth f val center Offset f f var threshold f val offsetX Animatable f val offsetY Animatable f val rotation Animatable f val scale Animatable f var onSwipeLeft gt Unit var onSwipeRight gt Unit fun swipeLeft scope apply launch offsetX animateTo screenWidth animationSpec onSwipeLeft launch offsetX snapTo center x launch offsetY snapTo f launch rotation snapTo f launch scale snapTo f launch scale animateTo f animationSpec fun swipeRight scope apply launch offsetX animateTo screenWidth animationSpec onSwipeRight launch offsetX snapTo center x launch offsetY snapTo f launch scale snapTo f launch rotation snapTo f launch scale animateTo f animationSpec fun returnCenter scope apply launch offsetX animateTo center x animationSpec launch offsetY animateTo center y animationSpec launch rotation animateTo f animationSpec launch scale animateTo f animationSpec This composable basically deals with the cards animation we deal with when the user swipes right left or returns to center If left the card is thrown to the left if right the card is thrown to the right Next we need to create a function to remember the state of the controller so below the CardStackController composable add the following function Composablefun rememberCardStackController animationSpec AnimationSpec lt Float gt SwipeableDefaults AnimationSpec CardStackController val scope rememberCoroutineScope val screenWidth with LocalDensity current LocalConfiguration current screenWidthDp dp toPx return remember CardStackController scope scope screenWidth screenWidth animationSpec animationSpec After we need to create a draggable modifier extension so that we can actually drag the cards OptIn ExperimentalMaterialApi class ExperimentalComposeUiApi class fun Modifier draggableStack controller CardStackController thresholdConfig Float Float gt ThresholdConfig velocityThreshold Dp dp Modifier composed val scope rememberCoroutineScope val density LocalDensity current val velocityThresholdPx with density velocityThreshold toPx val thresholds a Float b Float gt with thresholdConfig a b density computeThreshold a b controller threshold thresholds controller center x controller right x Modifier pointerInput Unit detectDragGestures onDragEnd if controller offsetX value lt f if controller offsetX value gt controller threshold controller returnCenter else controller swipeLeft else if controller offsetX value lt controller threshold controller returnCenter else controller swipeRight onDrag change dragAmount gt controller scope apply launch controller offsetX snapTo controller offsetX value dragAmount x controller offsetY snapTo controller offsetY value dragAmount y val targetRotation normalize controller center x controller right x abs controller offsetX value f f controller rotation snapTo targetRotation controller offsetX value sign controller scale snapTo normalize controller center x controller right x abs controller offsetX value f change consume Here we detect when the dragging starts and ends and animate normalize accordinly Finally we need to create the function to normalize the card when it is being dragged private fun normalize min Float max Float v Float startRange Float f endRange Float f Float require startRange lt endRange Start range is greater than end range val value v coerceIn min max return value min max min endRange startRange startRange Phew That s the first component created next we need to create the component to actually show the cards Next create a new file called CardStack and import the needed dependencies import androidx compose foundation layout import androidx compose material import androidx compose material icons Iconsimport androidx compose material icons filled Closeimport androidx compose material icons filled FavoriteBorderimport androidx compose runtime import androidx compose ui Alignmentimport androidx compose ui Modifierimport androidx compose ui graphics Colorimport androidx compose ui graphics graphicsLayerimport androidx compose ui layout ContentScaleimport androidx compose ui layout layoutimport androidx compose ui text font FontWeightimport androidx compose ui unit Dpimport androidx compose ui unit dpimport androidx compose ui unit spimport androidx constraintlayout compose ConstraintLayoutimport coil compose AsyncImageimport kotlin math roundToIntFirst we will create the actually CardStack composible that will handle the stack of cards OptIn ExperimentalMaterialApi class Composablefun CardStack modifier Modifier Modifier items MutableList lt Item gt thresholdConfig Float Float gt ThresholdConfig gt FractionalThreshold f velocityThreshold Dp dp onSwipeLeft item Item gt Unit onSwipeRight item Item gt Unit onEmptyStack lastItem Item gt Unit var i by remember mutableStateOf items size if i onEmptyStack items last val cardStackController rememberCardStackController cardStackController onSwipeLeft onSwipeLeft items i i cardStackController onSwipeRight onSwipeRight items i i ConstraintLayout modifier modifier fillMaxSize padding dp val stack createRef Box modifier modifier constrainAs stack top linkTo parent top draggableStack controller cardStackController thresholdConfig thresholdConfig velocityThreshold velocityThreshold fillMaxHeight items asReversed forEachIndexed index item gt Card modifier Modifier moveTo x if index i cardStackController offsetX value else f y if index i cardStackController offsetY value else f visible visible index i index i graphicsLayer rotationZ if index i cardStackController rotation value else f scaleX if index lt i cardStackController scale value else f scaleY if index lt i cardStackController scale value else f item cardStackController Next we will create the actual card to show the image and the like dislike buttons Composablefun Card modifier Modifier Modifier item com example tinderclone components Item cardStackController CardStackController Box modifier modifier if item url null AsyncImage model item url contentDescription contentScale ContentScale Crop modifier modifier fillMaxSize Column modifier modifier align Alignment BottomStart padding dp Text text item text color Color White fontWeight FontWeight Bold fontSize sp Text text item subText color Color White fontSize sp Row IconButton modifier modifier padding dp dp dp dp onClick cardStackController swipeLeft Icon Icons Default Close contentDescription tint Color White modifier modifier height dp width dp Spacer modifier Modifier weight f IconButton modifier modifier padding dp dp dp dp onClick cardStackController swipeRight Icon Icons Default FavoriteBorder contentDescription tint Color White modifier modifier height dp width dp Here we also use a spacle the make sure the dislike button is on the left and the like button is on the right Next we will create the data class to house the cards contents I also include a title and a subtitle for a simple self introduction data class Item val url String null val text String val subText String Finally we will create two Modifier extensions to handle movement and card visibility fun Modifier moveTo x Float y Float this then Modifier layout measurable constraints gt val placeable measurable measure constraints layout placeable width placeable height placeable placeRelative x roundToInt y roundToInt fun Modifier visible visible Boolean true this then Modifier layout measurable constraints gt val placeable measurable measure constraints if visible layout placeable width placeable height placeable placeRelative else layout That s the hard work done now all we have to do is actually use our components Implementing the CardStackFinally all we have to do now is use our newly created components in the MainActivity so remove Greeting and replace it with the following class MainActivity ComponentActivity OptIn ExperimentalMaterialApi class override fun onCreate savedInstanceState Bundle super onCreate savedInstanceState setContent TinderCloneTheme val isEmpty remember mutableStateOf false Scaffold Column modifier Modifier fillMaxSize padding it horizontalAlignment Alignment CenterHorizontally verticalArrangement Arrangement Center if isEmpty value CardStack items accounts onEmptyStack isEmpty value true else Text text No more cards fontWeight FontWeight Bold val accounts mutableListOf lt Item gt Item ixid MnwxMjAfDBMHxwaGbywYWdlfHxfGVufDBfHx amp auto format amp fit crop amp w amp q Musician Alice Item ixid MnwxMjAfDBMHxwaGbywYWdlfHxfGVufDBfHx amp auto format amp fit crop amp w amp q Developer Chris Item ixid MnwxMjAfDBMHxwaGbywYWdlfHxfGVufDBfHx amp auto format amp fit crop amp w amp q Teacher Roze Using the component is pretty easy I extend the onEmptyStack function to show text if there is nomore cards left to be shown I also use some dummy data the images are coutesy of unsplash Finally if you fire up the emulator or an actual device you should see the following Cool ConclusionIn this tutorail I have shown how to create a tinder like swipe app I hope you enjoyed the tutorial as much as I enjoyed making this I m still new to Compose so if you have anyways to improve it please let me know The source for this project can be found via Like me work I post about a variety of topics if you would like to see more please like and follow me Also I love coffee 2022-11-25 10:27:11
海外TECH DEV Community AWS open source newsletter, #137 https://dev.to/aws/aws-open-source-newsletter-137-574h AWS open source newsletter November th Instalment WelcomeWelcome to the AWS open source newsletter edition As it is re Invent next week I will be publishing the newsletter early as I am heading out on Monday I will be in Las Vegas talking with open source Builders hanging out on the Open Source Kiosk in the AWS Village and doing some talks If you are coming I would love to meet some of you so get in touch I will also be taking a break for a week so the next newsletter will be on December th As always this week we have more new projects for you to practice your four freedoms on including a couple of projects for those who are looking to perhaps stand up their own Mastadon instances aws vpc flowlogs enricher is a project to help you add additional data into your VPC Flow logs aws security assessment solution a solution that uses some open source security tools that you can use to assess your AWS accounts aws backup amplify appsync a tool for all AWS Amplify users need to know about message bus bridge is a tool to help you copy messages between message bus monitor serverless datalake keep on top of your data lakes with this solution ec image builder send approval notifications before sharing ami shows you how you can add a notification step in the AMI building workflow amazon ecs fargate cdk v cicd is a nice demonstration on using AWS CDKv with Flask deploy nth to eks a tool for Kubernetes admins and a few more projects too With the run up to re Invent the AWS Amplify team have been on fire and we have lots of content for AWS Amplify users and fans We also have content covering your favourite open source projects including GraphQL Grafana Prometheus MariaDB PostgreSQL Flutter React Apache Iceberg Apache Airflow Apache Flink Apache ShardingSphere AutoGluon AWS ParallelCluster Kubeflow NGINX Finch Amazon EMR Trino Apache Hudi ODE Apache Kafka OpenSearch MLFlow and more Finally with re Invent upon us make sure you check the events section for everything you need to know to make sure you do not miss the best open source sessions AWS Copilot have your sayThe AWS Copilot project has created a new design proposal for overriding Copilot abstracted resources using the AWS Cloud Development Kit CDK The goal is to provide a break the glass mechanism to access and configure functionality that is not surfaced by Copilot manifests by leveraging the expressive power of a programming language Have your say by heading over to Extending Copilot with the CDK and joining the discussion FeedbackPlease let me know how we can improve this newsletter as well as how AWS can better work with open source projects and technologies by completing this very short survey that will take you probably less than seconds to complete Thank you so much Celebrating open source contributorsThe articles and projects shared in this newsletter are only possible thanks to the many contributors in open source I would like to shout out and thank those folks who really do power open source and enable us all to learn and build on top of what they have created So thank you to the following open source heroes John Preston Andreas Wittig Michael Wittig Uma Ramadoss Boni Bruno Eric Henderson Chelluru Vidyadhar Vijay Karumajji Justin Lim Krishna Sarabu Chirag Dave and Mark Townsend Latest open source projectsThe great thing about open source projects is that you can review the source code If you like the look of these projects make sure you that take a look at the code and if it is useful to you get in touch with the maintainer to provide feedback suggestions or even submit a contribution Toolsaws sam cli pipeline init templatesaws sam cli pipeline init templates This repository contains the pipeline init templates used in the AWS SAM CLI for sam pipeline commands Customers can now incrementally add services to their repository and automate the creation and execution of pipelines for each new serverless service The template creates the necessary supporting infrastructure to keep track of commit history and changes that occur in your directories so only the modified service pipeline is triggered Get started by simply choosing option when you initialise and bootstrap and new pipeline aws security assessment solutionaws security assessment solution Cybersecurity remains a very important topic and point of concern for many CIOs CISOs and their customers To meet these important concerns AWS has developed a primary set of services customers should use to aid in protecting their accounts Amazon GuardDuty AWS Security Hub AWS Config and AWS Well Architected reviews help customers maintain a strong security posture over their AWS accounts As more organizations deploy to the cloud especially if they are doing so quickly and they have not yet implemented the recommended AWS Services there may be a need to conduct a rapid security assessment of the cloud environment With that in mind we have worked to develop an inexpensive easy to deploy secure and fast solution to provide our customers two security assessment reports These security assessments are from the open source projects “Prowler and “ScoutSuite Each of these projects conduct an assessment based on AWS best practices and can help quickly identify any potential risk areas in a customer s deployed environment aws backup amplify appsyncaws backup amplify appsync AWS Amplify makes it easy to build full stack front end UI apps with backends and authentication AWS AppSync adds serverless GraphQL and DynamoDB tables to your application with no code This project guides you on how to include the infrastructure as code to add AWS Backup to an Amplify and AppSync application using to manage snapshots for your applications DynamoDB tables monitor serverless datalakemonitor serverless datalake This repository serves as a launch pad for monitoring serverless data lakes in AWS The objective is to provide a plug and play mechanism for monitoring enterprise scale data lakes Data lakes starts small and rapidly explodes with adoption With growing adoption the data pipelines also grows in number and complexity It is pivotal to ensure that the data pipeline executes as per SLA and failures be mitigated The solution provides mechanisms for the following Capture state changes across all tasks in the data lake Quickly notify operations of failures as they happen Measure service reliability across data lake to identify opportunities for performance optimisationmessage bus bridgemessage bus bridge is a relatively simple service that transfers messages between two different message buses It was built for the purpose of providing users of WebSocket API services to have a quick and easy way to provide connectivity to their existing MQ bus systems without having to re code to a WebSocket API Effectively it will listen to any message coming from the MQ bus and send it over to the WebSocket API and vice versa While the service in this incarnation implements MQ to WebSockets the code is modular so that the respective bus handling code can be swapped out for another bus such as JMS or Kafka aws vpc flowlogs enricheraws vpc flowlogs enricher This repo contains a sample lambda function code that can be used in Kinesis Firehose stream to enrich VPC Flow Log record with additional metadata like resource tags for source and destination IP addresses and VPC ID Subnet ID Interface ID AZ for destination IP addresses This data then can be used to identify flows for specific tags or Source AZ to destination AZ traffic and many more scenarios ec image builder send approval notifications before sharing amiec image builder send approval notifications before sharing ami You may be required to manually validate the Amazon Machine Image AMI built from an Amazon Elastic Compute Cloud Amazon EC Image Builder pipeline before sharing this AMI to other AWS accounts or to an AWS organization Currently Image Builder provides an end to end pipeline that automatically shares AMIs after they ve been built This repo provides code and documentation to help you build a solution to enable approval notifications before AMIs are shared with other AWS accounts deploy nth to eksdeploy nth to eks AWS Node Termination Handler nth ensures that the Kubernetes control plane responds appropriately to events that can cause your EC instance to become unavailable such as EC maintenance events EC Spot interruptions ASG Scale In ASG AZ Rebalance and EC Instance Termination via the API or Console If not handled your application code may not stop gracefully take longer to recover full availability or accidentally schedule work to nodes that are going down The aws node termination handler NTH can operate in two different modes Instance Metadata Service IMDS or the Queue Processor The aws node termination handler Instance Metadata Service Monitor will run a small pod on each host to perform monitoring of IMDS paths like spot or events and react accordingly to drain and or cordon the corresponding node The aws node termination handler Queue Processor will monitor an SQS queue of events from Amazon EventBridge for ASG lifecycle events EC status change events Spot Interruption Termination Notice events and Spot Rebalance Recommendation events When NTH detects an instance is going down we use the Kubernetes API to cordon the node to ensure no new work is scheduled there then drain it removing any existing work The termination handler Queue Processor requires AWS IAM permissions to monitor and manage the SQS queue and to query the EC API This pattern will automate the deployment of Node Termination Handler using Queue Processor through CICD Pipeline Demos Samples Solutions and Workshopscustom provider with terraform plugin frameworkcustom provider with terraform plugin framework This repository contains a complete implementation of a custom provider built using HashiCorp s latest SDK called Terraform plugin framework It is used to teach educate and show the internals of a provider built with the latest SDK from HashiCorp Even if you are not looking to learn how to build custom providers you may dial your troubleshooting skills to an expert level if you learn how one works behind the scenes Plus this provider is lots of fun to play with The provider is called buildonaws and it allows you to maintain characters from comic books such as heros super heros and villains mastodon on awsmastodon on aws Andreas Wittig and Michael Wittig share details of how you can host your own Mastodon instance on AWS They have also put together this blog post Mastodon on AWS Host your own instance which you can read for more info mastodon aws architecturemastodon aws architecture this repo provides details on how snapp social Mastadon instance is being run on AWS and as more and more people explore whether this options is right for them take a look and see how they have architected and deployed this on AWS amazon ecs fargate cdk v cicdamazon ecs fargate cdk v cicd This project builds a complete sample containerised Flask application publicly available on AWS using Fargate ECS CodeBuild and CodePipline to produce a fully functional pipeline to continuously roll out changes to your new app ROSConDemoROSConDemo this repo contains code for a working robotic fruit picking demo project for ODE with ROS Gem ode demo project This project demonstrates how ROS Gem for ODE can be used with a scene The Loft project and ROS navigation stack AWS and Community blog postsFinchPhil Estes and Chris Short put together this post Introducing Finch An Open Source Client for Container Development to announce a new open source project Finch Finch is a new command line client for building running and publishing Linux containers It provides for simple installation of a native macOS client along with a curated set of de facto standard open source components including Lima nerdctl containerd and BuildKit With Finch you can create and run containers locally and build and publish Open Container Initiative OCI container images One thing that really stands out from this post is this quote Rather than iterating in private and releasing a finished project we feel open source is most successful when diverse voices come to the party We have plans for features and innovations but opening the project this early will lead to a more robust and useful solution for all We are happy to address issues and are ready to accept pull requests So check out this post and get hands on with Finch Apache HudiHot off the heels of featuring Apache Hudi in the last Build on Open Source show we have Suthan Phillips and Dylan Qu who have put together Build your Apache Hudi data lake on AWS using Amazon EMR Part where they cover best practices when building Hudi data lakes on AWS using Amazon EMR Apache KafkaWith so many choices for Builders on how they deploy Apache Kafka how do you decide which is the right option for you Well AWS Community Builder John Preston is here to provide his thoughts on this in his blog post AWS MSK Confluent Cloud Aiven How to chose your managed Kafka service provider After you have read the post share your thoughts with John in the comments Apache ShardingSphereApache ShardingSphere follows Database Plus our community s guiding development concept for creating a complete ecosystem that allows you to transform any database into a distributed database system and easily enhance it with sharding elastic scaling data encryption features amp more It focuses on repurposing existing databases by placing a standardized upper layer above existing and fragmented databases rather than creating a new database You can read more about this project in the post ShardingSphere on Cloud amp Pisanix replace Sidecar for a true cloud native experience and find out more about ShardingSphere on Cloud that shows you how you can deploy ShardingSphere in a Kubernetes environment on AWS MySQL and MariaDBIn the post Security best practices for Amazon RDS for MySQL and MariaDB instances Chelluru Vidyadhar discuss the different best practices you can follow in order to run Amazon RDS for MySQL and Amazon RDS for MariaDB databases securely Chelluru look at the current good practices at network database instance and DB engine MySQL and MariaDB levels Sticking with MariaDB Vijay Karumajji and Justin Lim have put together Increase write throughput on Amazon RDS for MariaDB using the MyRocks storage engine where they explore the newly launched MyRocks storage engine architecture in Amazon RDS for MariaDB They start by covering MyRocks and its architecture use cases of MyRocks and demonstrate our benchmarking results so you can determine if the MyRocks storage engine can help you get increased performance for your workload PostgreSQLpgBadger is an open source tool for identifying both slow running and frequently running queries in your PostgreSQL applications and helping guide you on how to improve their performance In the blog post A serverless architecture for analyzing PostgreSQL logs with pgBadger Krishna Sarabu Chirag Dave and Mark Townsend walk you through a solution design that enables the analysis of PostgreSQL database logs using no persistent compute resources This allows you to use pgBadger without having to worry about provisioning securing and maintaining additional compute and storage resources hands on KubernetesWe had a plethora of Kubernetes content in the run up to re Invent so here is a round up of the ones I found most interesting How to detect security issues in Amazon EKS clusters using Amazon GuardDuty Part walks through the events leading up to a real world security issue that occurred due to EKS cluster misconfiguration and then looks at how those misconfigurations could be used by a malicious actor and how Amazon GuardDuty monitors and identifies suspicious activity throughout the EKS security eventPersistent storage for Kubernetes the first of a two part post that covers the concepts of persistent storage for Kubernetes and how you can apply those concepts for a basic workloadExposing Kubernetes Applications Part NGINX Ingress Controller the third in a series looking at ways to expose applications running in a Kubernetes cluster for external access this post covers using an open source implementation of an Ingress controller NGINX Ingress Controller exploring some of its features and the ways it differs from its AWS Load Balancer ControllerMachine Learning with Kubeflow on Amazon EKS with Amazon EFS walks through how you can use Kubeflow on Amazon EKS to implement model parallelism and use Amazon EFS as persistent storage to share datasets hands on Other posts and quick readsUsing Authorizer with DynamoDB and EKS shows how to use the open source Authorizer project to provide an auth solution when working with Amazon DynamoDBLaunch self supervised training jobs in the cloud with AWS ParallelCluster describes the process for creating a High Performance Compute HPC cluster that will launch large self supervised training jobs primarily leveraging two technologies AWS ParallelCluster and the Vision Self Supervised Learning VISSL libraryGetting started with JavaScript resolvers in AWS AppSync GraphQL APIs takes a look at how you can now use JavaScript to write your AppSync pipeline resolver code and AppSync function code as well as the existing Velocity Template Language VTL Easy and accurate forecasting with AutoGluon TimeSeries showcases AutoGluon TimeSeries s ease of use in quickly building a powerful forecaster hands on Managing images in your NextJS app with AWS AppSync and the AWS CDK shows how combining the AWS CDK with the Amplify JavaScript library they provide the flexibility needed for teams to scale independently and confidently while still taking advantage of modern tooling hands on Case StudiesAnnouncing the winners of the inaugural Future of Government Awards Celebrating digital transformation initiatives around the world includes details of the winners of Open Source Creation of the Year Award and Open Source Adaptation of the Year Award DENT the Open Source Network Operating System for Distributed Edge Now Powers AWS Just Walk Out Technology a look at how this networking open source project is being used by AWS in it s Just Walk Out Technology Quick updatesApache IcebergAmazon Athena has added SQL commands and file formats that simplify the storage transformation and maintenance of data stored in Apache Iceberg tables These new capabilities enable data engineers and analysts to combine more of the familiar conveniences of SQL with the transactional properties of Iceberg to enable efficient and robust analytics use cases Today s launch adds CREATE TABLE AS SELECT CTAS MERGE and VACUUM commands that streamline the lifecycle management of your Iceberg data CTAS makes it fast and efficient to create tables MERGE synchronises tables in one step to simplify your data preparation and update tasks and VACUUM helps you manage storage footprint and delete records to meet regulatory requirements such as GDPR We ve also added support for AVRO and ORC so you can create Iceberg tables with a broader set of file formats Lastly you can now simplify access to Iceberg managed data by using Views to hide complex joins aggregations and data types Apache AirflowAmazon Managed Workflows for Apache Airflow MWAA now provides Amazon CloudWatch metrics for container database and queue utilisation Amazon MWAA is a managed service for Apache Airflow that lets you use the same familiar Apache Airflow platform as you do today to orchestrate your workflows and enjoy improved scalability availability and security without the operational burden of having to manage the underlying infrastructure With these additional metrics customers have improved visibility into their Amazon MWAA performance to help them debug workloads and appropriately size their environments Check out the excellent post Introducing container database and queue utilization metrics for the Amazon MWAA environment where Uma Ramadoss dives deep and shares details about the new metrics published for Amazon MWAA environment build a sample application with a pre built workflow and explore the metrics using CloudWatch dashboard hands on Apache FlinkApache Flink is a popular open source framework for stateful computations over data streams It allows you to formulate queries that are continuously evaluated in near real time against an incoming stream of events There were a couple of announcements this week featuring this open source project First up was news that Amazon Kinesis Data Analytics for Apache Flink now supports Apache Flink version This new version includes improvements to Flink s exactly once processing semantics Kinesis Data Streams and Kinesis Data Firehose connectors Python User Defined Functions Flink SQL and more The release also includes an AWS contributed capability a new Async Sink framework which simplifies the creation of custom sinks to deliver processed data Read more about how we contributed to this release by checking out the post Making it Easier to Build Connectors with Apache Flink Introducing the Async Sink where Zichen Liu Steffen Hausmann and Ahmed Hamdy talk about a feature of Apache Flink Async Sinks and how the Async Sink works how you can build a new sink based on the Async Sink and discuss our plans to continue our contributions to Apache Flink Amazon EMR customers can now use AWS Glue Data Catalog from their streaming and batch SQL workflows on Flink The AWS Glue Data Catalog is an Apache Hive metastore compatible catalog You can configure your Flink jobs on Amazon EMR to use the Data Catalog as an external Apache Hive metastore With this release You can then directly run Flink SQL queries against the tables stored in the Data Catalog Flink supports on cluster Hive metastore as the out of box persistent catalog This means that metadata had to be recreated when clusters were shutdown and it was hard for multiple clusters to share the same metadata information Starting with Amazon EMR your Flink jobs on Amazon EMR can manage Flink s metadata in AWS Glue Data Catalog You can use a persistent and fully managed Glue Data Catalog as a centralised repository Each Data Catalog is a highly scalable collection of tables organised into databases The AWS Glue Data Catalog provides a uniform repository where disparate systems can store and find metadata to keep track of data in data silos You can then query the metadata and transform that data in a consistent manner across a wide variety of applications With support for AWS Glue Data Catalog you can use Apache Flink on Amazon EMR for unified BATCH and STREAM processing of Apache Hive Tables or metadata of any Flink tablesource such as Iceberg Kinesis or Kafka You can specify the AWS Glue Data Catalog as the metastore for Flink using the AWS Management Console AWS CLI or Amazon EMR API Amazon EMRA couple of Amazon EMR on Amazon EKS updates this week The ACK controller for Amazon EMR on Elastic Kubernetes Service EKS has graduated to generally available status Using the ACK controller for EMR on EKS you can declaratively define and manage EMR on EKS resources such as virtual clusters and job runs as Kubernetes custom resources This lets you manage these resources directly using Kubernetes native tools such as kubectl EMR on EKS is a deployment option for EMR that allows you to run open source big data frameworks on EKS clusters You can consolidate analytical workloads with your Kubernetes based applications on the same Amazon EKS cluster to improve resource utilisation and simplify infrastructure management and tooling ACK is a collection of Kubernetes custom resource definitions CRDs and custom controllers working together to extend the Kubernetes API and manage AWS resources on your behalf Following that we had the announcement of support for configuring Spark properties within EMR Studio Jupyter Notebook sessions for interactive Spark workloads Amazon EMR on EKS enables customers to efficiently run open source big data frameworks such as Apache Spark on Amazon EKS Amazon EMR on EKS customers setup and use a managed endpoint available in preview to run interactive workloads using integrated development environments IDEs such as EMR Studio Data scientists and engineers use EMR Studio Jupyter notebooks with EMR on EKS to develop visualise and debug applications written in Python PySpark or Scala With this release customers can now customise their Spark settings such as driver and executor CPU memory number of executors and package dependencies within their notebook session to handle different computational workloads or different amounts of data using a single managed endpoint TrinoTrino is an open source SQL query engine used to run interactive analytics on data stored in Amazon S Announced last week was news that Amazon S improves performance of queries running on Trino by up to x when using Amazon S Select With S Select you “push down the computational work to filter your S data instead of returning the entire object By using Trino with S Select you retrieve only a subset of data from an object reducing the amount of data returned and accelerating query performance AWS s upstream contribution to open source Trino you can use Trino with S Select to improve your query performance S Select offloads the heavy lifting of filtering and accessing data inside objects to Amazon S which reduces the amount of data that has to be transferred and processed by Trino For example if you have a data lake built on Amazon S and use Trino today you can use S Select s filtering capability to quickly and easily run interactive ad hoc queries You can explore this in more detail by checking out this blog post Run queries up to x faster using Trino with Amazon S Select on Amazon EMR where Boni Bruno and Eric Henderson look at the performance benchmarks on Trino release with S Select using TPC DS like benchmark queries at TB scale AWS AmplifyAmplify DataStore provides frontend app developers the ability to build real time apps with offline capabilities by storing data on device web browser or mobile device and automatically synchronizing data to the cloud and across devices on an internet connection Launched this week was the release of custom primary keys also known as custom identifiers for Amplify DataStore to provide additional flexibility for your data models You can dive deeper into this update by reading along in the post New Announcing custom primary key support for AWS Amplify DataStoreWe had another Amplify DataStore post that looks at a number of other enhancements with Amplify DataStore that were released this week that make working with relational data easier lazy loading nested query predicates and type enhancements To find out more about these new enhancements check out NEW Lazy loading amp nested query predicates for AWS Amplify DataStore hands on Also announced this week was the release of version of the Amplify JavaScript library This release is jam packed with highly requested features in addition to under the hood improvements to enhance stability and usability of the JavaScript library Check out the post Announcing AWS Amplify JavaScript library version which contains links to the GitHub repo The Amplify team have been super busy as they also announced a developer preview to expand Flutter support to Web and Desktop for the API Analytics and Storage use cases Developers can now build cross platform Flutter apps with Amplify that target iOS Android Web and Desktop macOS Windows Linux using a single codebase Combined with the Authentication preview that was previously released developers can now build cross platform Flutter applications that include REST API or GraphQL API to interact with backend data analytics to understand user behaviour and storage for saving and retrieving files and media This developer preview version was written fully in Dart allowing developers to deploy their apps to all target platforms currently supported by Flutter Amplify Flutter is designed to provide developers with consistent behaviour regardless of the target platform With these feature sets now available on Web and Desktop Flutter developers can build experiences that target the platforms that matter most to their customers Check out the post Announcing Flutter Web and Desktop support for AWS Amplify Storage Analytics and API libraries to find out more about this launch and how to use AWS Amplify GraphQL API and Storage libraries by creating a grocery list application with Flutter that targets iOS Android Web and Desktop hands on Finally we also announced that AWS Amplify is announcing support for GraphQL APIs without Conflict Resolution enabled With this launch it s easier than ever to use custom mutations and queries without needing to manage the underlying conflict resolution protocol You can still model your data with the same easy to use graphical interface And we are also bringing improved GraphQL API testing to Studio through the open source tool GraphiQL Find out more by reading the post Announcing new GraphQL API features in Amplify StudioBonus ContentThere has been plenty of AWS Amplify content posted this week so why not check out some of these posts NEW Build React forms for any API in minutes with AWS Amplify Studio no AWS Account required looks at Amplify Studio form builder the new way to build React form components for any API hands on Text to Speech on Android Using AWS Amplify provides a nice example on how to use the Predictions category to implement text to speech in an Android app hands on AWS ToolkitsAWS Toolkits for JetBrains and VS Code released a faster code iteration experience for developing AWS SAM applications The AWS Toolkits are open source plugins for JetBrains and VS Code IDEs that provide an integrated experience for developing Serverless applications including assistance for getting started and local step through debugging capabilities for Serverless applications With today s release the Toolkits adds SAM CLI s Lambda “sync capabilities shipped as SAM Accelerate check out the announcement These new features in the Toolkits for JetBrains and VS Code provide customers with increased flexibility Customers can either sync their entire Serverless application i e infrastructure and the code or sync just the code changes and skip Cloudformation deployments Read more in the full blog post Faster iteration experience for AWS SAM applications in the AWS Toolkits for JetBrains and VS CodeGrafanaLaunched this week was Amazon Managed Grafana s new alerting feature that allows customers to gain visibility into their Prometheus Alertmanager alerts from their Grafana workspace Customers can continue to use classic Grafana Alerting in their Amazon Managed Grafana workspaces if that experience better fits their needs Customers using the Amazon Managed Service for Prometheus workspaces to collect Prometheus metrics utilise the fully managed Alert Manager and Ruler features in the service to configure alerting and recording rules With this feature they can visualise all their alert and recording rules configured in their Amazon Managed Service for Prometheus workspace Read more in the hands on guide Announcing Prometheus Alertmanager rules in Amazon Managed GrafanaAlso announced was Amazon Managed Grafana support for connecting to data sources inside an Amazon Virtual Private Cloud Amazon VPC Customers using Amazon Managed Grafana have been asking for support to connect to data sources that reside in an Amazon VPC and are not publicly accessible Data in Amazon OpenSearch Service clusters Amazon RDS instances self hosted data sources and other data sensitive workloads often are only privately accessible Customers have expressed the need to connect Amazon Managed Grafana to these data sources securely while maintaining a strong security posture Read more about this in the post Announcing Private VPC data source support for Amazon Managed GrafanaNodeJSYou can now develop AWS Lambda functions using the Node js runtime This version is in active LTS status and considered ready for general use When creating or updating functions specify a runtime parameter value of nodejs x or use the appropriate container base image to use this new runtime This runtime version is supported by functions running on either Arm based AWS Graviton processors or x based processors Using the Graviton processor architecture option allows you to get up to better price performance Read the post Node js x runtime now available in AWS Lambda to find out more about the major changes available with the Node js runtime in Lambda You should also check out Why and how you should use AWS SDK for JavaScript v on Node js as the AWS SDK for JavaScript v is included by default in AWS Lambda Node js runtime MariaDBAmazon Relational Database Service Amazon RDS for MariaDB now supports MariaDB minor versions and We recommend that you upgrade to the latest minor versions to fix known security vulnerabilities in prior versions of MariaDB and to benefit from the numerous bug fixes performance improvements and new functionality added by the MariaDB community PostgreSQLAmazon Relational Database Service Amazon RDS for PostgreSQL now supports PostgreSQL minor versions and We recommend you upgrade to the latest minor version to fix known security vulnerabilities in prior versions of PostgreSQL and to benefit from the bug fixes performance improvements and new functionality added by the PostgreSQL community Please refer to the PostgreSQL community announcement for more details about the release This release also includes support for Amazon RDS Multi AZ with two readable standbys and updates for existing supported PostgreSQL extensions PostGIS extension is updated to pg partman extension is updated to and pgRouting extension is updated to Please see the list of supported extensions in the Amazon RDS User Guide for specific versions Videos of the weekKubernetes and AWSIf you missed this then it is well worth checking out the awesome Jay Pipes discuss AWS use of Kubernetes as well as AWS contributions to the Kubernetes code base The interview was recorded at KubeCon North America last month OpenSearchThe videos from OpenSearchCon that took place earlier this year are now available You can see the entire list here and there are a number of great sessions covering a very broad range of topics The one I spent time watching was this session from OpenSearch Core Codebase Nicholas Knize OpenSearch Maintainer Lucene Committer and PMC Member If you are interested in contributing to OpenSearch and curious in how to get started then this session will answer some of these questions and more by raising the hood and exploring the code base Kubeflow and MLFlowJoin your hosts Antje Barth and Chris Fregley as they are joined by a number of guests to talk about some great open source projects such as Kubeflow MLflow datamesh utils and data allBuild on Open SourceFor those unfamiliar with this show Build on Open Source is where we go over this newsletter and then invite special guests to dive deep into their open source project Expect plenty of code demos and hopefully laughs We have put together a playlist so that you can easily access all seven of the other episodes of the Build on Open Source show Build on Open Source playlist Events for your diaryApache Hudi Meetup re InventNovember th December rd Las VegasApache Hudi is a data platform technology that helps build reliable and scalable data lakes Hudi brings stream processing to big data supercharging your data lakes making them orders of magnitude more efficient Hudi is widely used by many companies like Uber Walmart Amazon com Robinhood GE Disney Hotstar Alibaba ByteDance that build transactional or streaming data lakes Hudi also comes pre built with Amazon EMR and is integrated with Amazon Athena AWS Glue as well as Amazon Redshift It is also integrated in many other cloud providers such as Google cloud and Alibaba cloud Please join the Apache Hudi community for a Meetup hosted by Onehouse and the Apache Hudi community at the re Invent site Here are the different times and locations local Vegas time Nov th pm pm NetworkingNov th pm pm Hudi Speaker TBA Nov th pm pm How Hudi supercharges your lake house architecture with streaming and historical data by Vinoth ChandarNov th pm pm Roadmap Speaker TBA Nov th pm pm Open floor for Q amp AIt will be hosted in Conference room “Chopin at the Encore Hotelre InventNovember th December rd Las Vegasre Invent is happening all this week and there is plenty of great open source content for you whether it is breakout sessions chalk talks open source vendors in the expo and more We will be featuring open source projects in the Developer Lounge again in the AWS Modern Applications and Open Source Zone We have published a schedule of the open source projects you can check out so why not take a peek at The AWS Modern Applications and Open Source Zone Learn Play and Relax at AWS re Invent and come along I will be there for a big chunk of time on Tuesday Wednesday and Thursday If you have a good open source story to tell or some SWAG to trade I will be bringing our Build On Open Source challenge coins so be sure to hunt me down Check out this handy way to look at all the amazing open source sessions then check out this dashboard sign up required I would love to hear which ones you are excited about so please let me know in the comments or via Twitter If you want to hear what my top three must watch sessions then this is what I would attend sadly as an AWS employee I am not allowed to attend sessions OPN AWS Lambda Powertools Lessons from the road to million downloads Heitor Lessa is going to deliver an amazing session on the journey from idea to one of the most loved and used open source tools for AWS Lambda usersBOA When security safety and urgency all matter Handling LogShell Cannot wait for this session from Abbey Fuller who will walk us through how we managed this incidentOPN Maintaining the AWS Amplify Framework in the open Matt Auerbach and Ashish Nanda are going to share details on how Amplify engineering managers work with the OSS community to build open source softwareOpenSearchEvery other Tuesday pm GMTThis regular meet up is for anyone interested in OpenSearch amp Open Distro All skill levels are welcome and they cover and welcome talks on topics including search logging log analytics and data visualisation Sign up to the next session OpenSearch Community Meeting Stay in touch with open source at AWSI hope this summary has been useful Remember to check out the Open Source homepage to keep up to date with all our activity in open source by following us on AWSOpen 2022-11-25 10:07:14
海外TECH DEV Community AWS open source newsletter, #137 (Edición en español) https://dev.to/aws/aws-open-source-newsletter-137-edicion-en-espanol-1i06 AWS open source newsletter Edición en español November th Instalment BienvenidosBienvenido al boletín informativo de código abierto de AWS edición n º Como se trata de re Invent la próxima semana publicaréel boletín temprano cuando salga el lunes Estaréen Las Vegas hablando con constructores de código abierto pasando el rato en el quiosco de código abierto en AWS Village y dando algunas charlas Si vienes me encantaría conocer a algunos de ustedes asíque ponte en contacto También me tomaréun descanso de una semana por lo que el próximo boletín seráel de diciembre Como siempre esta semana tenemos más proyectos nuevos para que practiques tus cuatro libertades incluidos un par de proyectos para aquellos que buscan quizás hacer frente a sus propias instancias de Mastadon aws vpc flowlogs enricher es un proyecto para ayudarlo a agregar datos adicionales en sus registros de flujo de VPC aws security assessment solution una solución que utiliza algunas herramientas de seguridad de código abierto que puede usar para evaluar su AWS cuentas aws backup amplify appsync una herramienta para todos los usuarios de AWS Amplify que deben conocer message bus bridge es una herramienta para ayudarlo a copiar mensajes entre mensajes monitor serverless datalake manténgase al tanto de sus lagos de datos con esta solución ec image builder send approval notifications before sharing ami le muestra cómo puede agregar un paso de notificación en el flujo de trabajo de creación de AMI amazon ecs fargate cdk v cicd es una buena demostración sobre el uso de AWS CDKv con Flask deploy nth to eks una herramienta para administradores de Kubernetes ¡y también algunos proyectos más Con el período previo a re Invent el equipo de AWS Amplify ha estado entusiasmado y tenemos una gran cantidad de contenido excelente para los usuarios y fanáticos de AWS Amplify También tenemos excelente contenido que cubre sus proyectos de código abierto favoritos incluidos GraphQL Grafana Prometheus MariaDB PostgreSQL Flutter React Apache Iceberg Apache Airflow Apache Flink Apache ShardingSphere AutoGluon AWS ParallelCluster Kubeflow NGINX Finch Amazon EMR Trino Apache Hudi ODE Apache Kafka OpenSearch MLFlow y más Finalmente con re Invent upon us asegúrese de consultar la sección de eventos para obtener todo lo que necesita saber para asegurarse de no perderse las mejores sesiones de código abierto AWS Copilot désu opiniónEl proyecto AWS Copilot ha creado una nueva propuesta de diseño para anular los recursos abstractos de Copilot mediante el kit de desarrollo de la nube CDK de AWS El objetivo es proporcionar un mecanismo de romper el cristal para acceder y configurar la funcionalidad que no aparece en los manifiestos de Copilot aprovechando el poder expresivo de un lenguaje de programación Désu opinión dirigiéndose a Extending Copilot with the CDK y únase a la discusión FeedbackHágame saber cómo podemos mejorar este boletín y cómo AWS puede trabajar mejor con proyectos y tecnologías de código abierto completando esta breve encuesta que probablemente lo llevarámenos de segundos para completar ¡Muchas gracias Celebrando a los contribuyentes de código abiertoLos artículos y proyectos compartidos en este boletín solo son posibles gracias a los muchos colaboradores en código abierto Me gustaría gritar y agradecer a aquellas personas que realmente impulsan el código abierto y nos permiten a todos aprender y construir sobre lo que han creado Asíque gracias a los siguientes héroes de código abierto John Preston Andreas Wittig Michael Wittig Uma Ramadoss Boni Bruno Eric Henderson Chelluru Vidyadhar Vijay Karumajji Justin Lim Krishna Sarabu Chirag Dave and Mark Townsend Últimos proyectos de código abiertoLo mejor de los proyectos de código abierto es que puede revisar el código fuente Si le gusta el aspecto de estos proyectos asegúrese de echar un vistazo al código y si le resulta útil póngase en contacto con el mantenedor para proporcionar comentarios sugerencias o incluso enviar una contribución Hermamientasaws sam cli pipeline init templatesaws sam cli pipeline init templates Este repositorio contiene las plantillas de inicio de canalización que se utilizan en la CLI de AWS SAM para los comandos de canalización de sam Los clientes ahora pueden agregar servicios de forma incremental a su repositorio y automatizar la creación y ejecución de canalizaciones para cada nuevo servicio sin servidor La plantilla crea la infraestructura de soporte necesaria para realizar un seguimiento del historial de confirmaciones y los cambios que ocurren en sus directorios por lo que solo se activa la canalización de servicio modificada Comience simplemente eligiendo la opción cuando inicie y arranque y una nueva canalización aws security assessment solutionaws security assessment solution La ciberseguridad sigue siendo un tema muy importante y un motivo de preocupación para muchos CIO CISO y sus clientes Para satisfacer estas importantes preocupaciones AWS ha desarrollado un conjunto principal de servicios que los clientes deben usar para ayudar a proteger sus cuentas Las revisiones de Amazon GuardDuty AWS Security Hub AWS Config y AWS Well Architected ayudan a los clientes a mantener una sólida postura de seguridad en sus cuentas de AWS A medida que más organizaciones se implementan en la nube especialmente si lo hacen rápidamente y aún no han implementado los servicios de AWS recomendados es posible que sea necesario realizar una evaluación de seguridad rápida del entorno de la nube Con eso en mente hemos trabajado para desarrollar una solución económica fácil de implementar segura y rápida para proporcionar a nuestros clientes dos informes de evaluación de seguridad Estas evaluaciones de seguridad son de los proyectos de código abierto Prowler y ScoutSuite Cada uno de estos proyectos lleva a cabo una evaluación basada en las mejores prácticas de AWS y puede ayudar a identificar rápidamente cualquier área de riesgo potencial en el entorno implementado de un cliente aws backup amplify appsyncaws backup amplify appsync AWS Amplify facilita la creación de aplicaciones de interfaz de usuario de interfaz de usuario de pila completa con backends y autenticación AWS AppSync agrega tablas GraphQL y DynamoDB sin servidor a su aplicación sin código Este proyecto lo guía sobre cómo incluir la infraestructura como código para agregar AWS Backup a una aplicación de Amplify y AppSync para administrar instantáneas para las tablas de DynamoDB de sus aplicaciones monitor serverless datalakemonitor serverless datalake Este repositorio sirve como plataforma de lanzamiento para monitorear lagos de datos sin servidor en AWS El objetivo es proporcionar un mecanismo plug and play para monitorear lagos de datos a escala empresarial Los lagos de datos comienzan pequeños y explotan rápidamente con la adopción Con una adopción creciente las canalizaciones de datos también crecen en número y complejidad Es fundamental garantizar que la canalización de datos se ejecute según el SLA y que se mitiguen las fallas La solución proporciona mecanismos para lo siguiente Capturar cambios de estado en todas las tareas en el lago de datos Notificar rápidamente las operaciones de fallas a medida que ocurren Medir la confiabilidad del servicio en todo el lago de datos para identificar oportunidades para la optimización del rendimiento message bus bridgemessage bus bridge es un servicio relativamente simple que transfiere mensajes entre dos buses de mensajes diferentes Fue construido con el propósito de proporcionar a los usuarios de los servicios API de WebSocket una forma rápida y fácil de proporcionar conectividad a sus sistemas de bus MQ existentes sin tener que volver a codificar a una API de WebSocket Efectivamente escucharácualquier mensaje proveniente del bus MQ y lo enviaráa la API de WebSocket y viceversa Si bien el servicio en esta encarnación implementa MQ en WebSockets el código es modular para que el código de manejo del bus respectivo se pueda cambiar por otro bus como JMS o Kafka aws vpc flowlogs enricheraws vpc flowlogs enricher Este repositorio contiene un código de función lambda de muestra que se puede usar en el flujo de Kinesis Firehose para enriquecer el registro de flujo de VPC con metadatos adicionales como etiquetas de recursos para las direcciones IP de origen y destino e ID de VPC ID de subred ID de interfaz AZ para las direcciones IP de destino Estos datos se pueden usar para identificar flujos para etiquetas específicas o tráfico de origen AZ a destino AZ y muchos más escenarios ec image builder send approval notifications before sharing amiec image builder send approval notifications before sharing ami Es posible que deba validar manualmente la imagen de máquina de Amazon AMI creada a partir de una canalización de Image Builder de Amazon Elastic Compute Cloud Amazon EC antes de compartir esta AMI con otras cuentas de AWS o con una organización de AWS Actualmente Image Builder proporciona una canalización de un extremo a otro que comparte automáticamente las AMI una vez que se han creado Este repositorio proporciona código y documentación para ayudarlo a crear una solución para habilitar las notificaciones de aprobación antes de que las AMI se compartan con otras cuentas de AWS deploy nth to eksdeploy nth to eks El controlador de terminación de nodos de AWS nth garantiza que el plano de control de Kubernetes responda adecuadamente a los eventos que pueden hacer que su instancia EC deje de estar disponible como eventos de mantenimiento de EC interrupciones puntuales de EC ASG Scale In ASG AZ Rebalance y EC Instance Termination a través de la API o la consola Si no se controla es posible que el código de su aplicación no se detenga correctamente tarde más en recuperar la disponibilidad total o programe accidentalmente el trabajo en los nodos que se están desactivando El controlador de terminación de nodo de aws NTH puede operar en dos modos diferentes Metadatos de instancia Servicio IMDS o el Procesador de Cola El Monitor de servicio de metadatos de instancia de aws node termination handler ejecutaráun pequeño módulo en cada host para monitorear las rutas de IMDS como spot o events y reaccionar en consecuencia para drenar y o acordonar el nodo correspondiente El procesador de cola aws node termination handler monitorearáuna cola SQS de eventos de Amazon EventBridge para eventos de ciclo de vida de ASG eventos de cambio de estado de EC eventos de notificación de terminación de interrupción de spot y eventos de recomendación de reequilibrio de spot Cuando NTH detecta que una instancia estáfallando usamos la API de Kubernetes para acordonar el nodo y garantizar que no se programe ningún nuevo trabajo allí luego lo drenamos y eliminamos cualquier trabajo existente El controlador de terminación Queue Processor requiere permisos de AWS IAM para monitorear y administrar la cola de SQS y para consultar la API de EC Este patrón automatizarála implementación del controlador de terminación de nodo utilizando el procesador de cola a través de la canalización CICD Demos Samples Solutions and Workshopscustom provider with terraform plugin frameworkcustom provider with terraform plugin framework Este repositorio contiene una implementación completa de un proveedor personalizado creado con el último SDK de HashiCorp llamado marco de complemento de Terraform Se utiliza para enseñar educar y mostrar el funcionamiento interno de un proveedor creado con el SDK más reciente de HashiCorp Incluso si no estábuscando aprender cómo crear proveedores personalizados puede mejorar sus habilidades de solución de problemas a un nivel experto si aprende cómo funciona uno detrás de escena Además es muy divertido jugar con este proveedor El proveedor se llama buildonaws y le permite mantener personajes de cómics como héroes superhéroes y villanos mastodon on awsmastodon on aws Andreas Wittig y Michael Wittig comparten detalles sobre cómo puede alojar su propia instancia de Mastodon en AWS También han elaborado esta publicación de blog Mastodon en AWS aloje su propia instancia que puede leer para obtener más información mastodon aws architecturemastodon aws architecture este repositorio proporciona detalles sobre cómo se ejecuta la instancia de snapp social Mastadon en AWS y a medida que más y más personas exploran si esta opción es adecuada para ellos eche un vistazo y vea cómo han diseñado e implementado esto en AWS amazon ecs fargate cdk v cicdamazon ecs fargate cdk v cicd Este proyecto crea una aplicación Flask en contenedor de muestra completa disponible públicamente en AWS utilizando Fargate ECS CodeBuild y CodePipline para producir una canalización completamente funcional para implementar cambios continuamente en su nueva aplicación ROSConDemoROSConDemo este repositorio contiene código para un proyecto de demostración de recolección de frutas robótica en funcionamiento para ODE con ROS Gem ode demo project Este proyecto demuestra cómo se puede usar ROS Gem para ODE con una escena proyecto The Loft y la pila de navegación ROS AWS and Community blog postsFinchPhil Estes y Chris Short elaboraron esta publicación Presentamos a Finch un cliente de código abierto para el desarrollo de contenedores para anunciar un nuevo proyecto de código abierto Finch Finch es un nuevo cliente de línea de comandos para crear ejecutar y publicar contenedores de Linux Proporciona una instalación sencilla de un cliente macOS nativo junto con un conjunto seleccionado de componentes de código abierto estándar de facto incluidos Lima nerdctl containerd y BuildKit Con Finch puede crear y ejecutar contenedores localmente y crear y publicar imágenes de contenedores de Open Container Initiative OCI Una cosa que realmente se destaca de esta publicación es esta cita En lugar de iterar en privado y lanzar un proyecto terminado creemos que el código abierto tiene más éxito cuando diversas voces se unen a la fiesta Tenemos planes para características e innovaciones pero abrir el proyecto tan temprano conduciráa una solución más sólida y útil para todos Nos complace abordar los problemas y estamos listos para aceptar solicitudes de incorporación de cambios Asíque echa un vistazo a esta publicación y ponte manos a la obra con Finch Apache HudiInmediatamente después de presentar Apache Hudi en el último programa Build on Open Source tenemos a Suthan Phillips y Dylan Qu que han creado Build your Apache Lago de datos de Hudi en AWS usando Amazon EMR Parte donde cubren las mejores prácticas al construir lagos de datos de Hudi en AWS usando Amazon EMRApache KafkaCon tantas opciones para los constructores sobre cómo implementar Apache Kafka ¿cómo decide cuál es la opción adecuada para usted Bueno John Preston creador de la comunidad de AWS estáaquípara brindar su opinión sobre esto en su publicación de blog AWS MSK Confluent Cloud Aiven ¿Cómo elegir su proveedor de servicios administrados de Kafka Después de leer la publicación comparta sus pensamientos con John en los comentarios Apache ShardingSphereApache ShardingSphere sigue Database Plus el concepto de desarrollo rector de nuestra comunidad para crear un ecosistema completo que le permite transformar cualquier base de datos en un sistema de base de datos distribuido y mejorarlo fácilmente con fragmentación escalado elástico funciones de cifrado de datos y más Se enfoca en reutilizar las bases de datos existentes colocando una capa superior estandarizada sobre las bases de datos existentes y fragmentadas en lugar de crear una nueva base de datos Puede leer más sobre este proyecto en la publicación ShardingSphere on Cloud y Pisanix reemplazan a Sidecar para una verdadera experiencia nativa de la nube y obtener más información sobre ShardingSphere on Cloud que le muestra cómo puede implementar ShardingSphere en un entorno de Kubernetes en AWS MySQL y MariaDBEn la publicación Prácticas recomendadas de seguridad para Amazon RDS para instancias MySQL y MariaDB Chelluru Vidyadhar analiza las diferentes prácticas recomendadas que puede seguir para ejecutar Amazon RDS para bases de datos MySQL y Amazon RDS para MariaDB de forma segura Chelluru analiza las buenas prácticas actuales a nivel de red instancia de base de datos y motor de base de datos MySQL y MariaDB Siguiendo con MariaDB Vijay Karumajji y Justin Lim han creado Aumentar el rendimiento de escritura en Amazon RDS para MariaDB usando el motor de almacenamiento MyRocks donde exploran el nuevo lanzóla arquitectura del motor de almacenamiento MyRocks en Amazon RDS para MariaDB Comienzan cubriendo MyRocks y su arquitectura casos de uso de MyRocks y demuestran nuestros resultados de evaluación comparativa para que pueda determinar si el motor de almacenamiento de MyRocks puede ayudarlo a obtener un mayor rendimiento para su carga de trabajo PostgreSQLpgBadger es una herramienta de código abierto para identificar consultas de ejecución lenta y de ejecución frecuente en sus aplicaciones de PostgreSQL y ayudarlo a guiarlo sobre cómo mejorar su rendimiento En la publicación de blog Una arquitectura sin servidor para analizar registros de PostgreSQL con pgBadger Krishna Sarabu Chirag Dave y Mark Townsend lo guían a través de un diseño de solución que permite el análisis de los registros de la base de datos de PostgreSQL sin utilizar recursos informáticos persistentes Esto le permite usar pgBadger sin tener que preocuparse por el aprovisionamiento la protección y el mantenimiento de recursos informáticos y de almacenamiento adicionales hands on KubernetesTuvimos una gran cantidad de contenido de Kubernetes en el período previo a re Invent por lo que aquíhay un resumen de los que me parecieron más interesantes Cómo detectar problemas de seguridad en clústeres de Amazon EKS mediante Amazon GuardDuty Parte repasa los eventos que llevaron a un problema de seguridad real que ocurriódebido a una configuración incorrecta del clúster de EKS y luego analiza cómo un actor malintencionado podría usar esas configuraciones incorrectas y cómo Amazon GuardDuty monitorea e identifica actividades sospechosas durante el evento de seguridad de EKSAlmacenamiento persistente para Kubernetes la primera de una publicación de dos partes que cubre los conceptos de almacenamiento persistente para Kubernetes y cómo puede aplicar esos conceptos para un básico carga de trabajo Exposición de aplicaciones de Kubernetes Parte Controlador de entrada de NGINX el tercero de una serie que busca formas de exponer aplicaciones que se ejecutan en un clúster de Kubernetes para acceso externo esta publicación cubre el uso de una implementación de código abierto de un controlador de entrada NGINX Ingress Controller explorando algunas de sus características y las formas en que difiere de su AWS Load Balancer ControllerAprendizaje automático con Kubeflow en Amazon EKS con Amazon EFS explica cómo puede usar Kubeflow en Amazon EKS para implementar el paralelismo de modelos y usar Amazon EFS como persistente almacenamiento para compartir conjuntos de datos práctica Otras publicaciones y lecturas rápidasUso de Authorizer con DynamoDB y EKS muestra cómo usar el Authorizer de código abierto bd proyecto para proporcionar una solución de autenticación cuando se trabaja con Amazon DynamoDBLanzar trabajos de capacitación autosupervisados ​​en la nube con AWS ParallelCluster describe el proceso para crear un clúster de computación de alto rendimiento HPC que lanzarágrandes trabajos de capacitación autosupervisados principalmente aprovechando dos tecnologías AWS ParallelCluster y la biblioteca Vision Self Supervised Learning VISSL Introducción a los solucionadores de JavaScript en las API GraphQL de AWS AppSync analiza cómo puede usar ahora JavaScript para escribir el código de resolución de canalización de AppSync y la función de AppSync código asícomo el Lenguaje de plantilla de Velocity VTL existentePronóstico fácil y preciso con AutoGluon TimeSeries muestra la facilidad de uso de AutoGluon TimeSeries para construir rápidamente un potente pronosticador prácticas Administrar imágenes en su aplicación NextJS con AWS AppSync y AWS CDK muestra cómo combinar AWS CDK con la biblioteca JavaScript de Amplify proporciona la flexibilidad necesaria para que los equipos escalen de forma independiente y con confianza mientras siguen aprovechando las herramientas modernas prácticas Estudios de casoAnuncio de los ganadores de los premios inaugurales Future of Government celebración de iniciativas de transformación digital en todo el mundo incluye detalles de los ganadores de Open Source Creation of the Year Premio y Premio a la Adaptación de Código Abierto del Año DENT el sistema operativo de red de código abierto para borde distribuido ahora impulsa la tecnología AWS Just Walk Out una mirada a cómo se estállevando a cabo este proyecto de red de código abierto utilizado por AWS en su tecnología Just Walk Out Quick updatesApache IcebergAmazon Athena agregócomandos SQL y formatos de archivo que simplifican el almacenamiento la transformación y el mantenimiento de los datos almacenados en las tablas de Apache Iceberg Estas nuevas capacidades permiten a los ingenieros y analistas de datos combinar más de las comodidades familiares de SQL con las propiedades transaccionales de Iceberg para permitir casos de uso de análisis eficientes y sólidos El lanzamiento de hoy agrega los comandos CREATE TABLE AS SELECT CTAS MERGE y VACUUM que agilizan la gestión del ciclo de vida de sus datos Iceberg CTAS hace que sea rápido y eficiente crear tablas MERGE sincroniza tablas en un solo paso para simplificar sus tareas de preparación y actualización de datos y VACUUM lo ayuda a administrar el espacio de almacenamiento y eliminar registros para cumplir con los requisitos normativos como el RGPD También agregamos soporte para AVRO y ORC para que pueda crear tablas Iceberg con un conjunto más amplio de formatos de archivo Por último ahora puede simplificar el acceso a los datos administrados por Iceberg mediante el uso de Vistas para ocultar combinaciones agregaciones y tipos de datos complejos Apache AirflowAmazon Managed Workflows for Apache Airflow MWAA ahora proporciona métricas de Amazon CloudWatch para el uso de contenedores bases de datos y colas Amazon MWAA es un servicio administrado para Apache Airflow que le permite usar la misma plataforma familiar de Apache Airflow que usa hoy para organizar sus flujos de trabajo y disfrutar de una escalabilidad disponibilidad y seguridad mejoradas sin la carga operativa de tener que administrar la infraestructura subyacente Con estas métricas adicionales los clientes han mejorado la visibilidad de su rendimiento de Amazon MWAA para ayudarlos a depurar cargas de trabajo y dimensionar adecuadamente sus entornos Consulte la excelente publicación Presentación de métricas de utilización de contenedores bases de datos y colas para el entorno Amazon MWAA donde Uma Ramadoss profundiza y comparte detalles sobre el nuevo métricas publicadas para el entorno de Amazon MWAA cree una aplicación de muestra con un flujo de trabajo prediseñado y explore las métricas con el panel de CloudWatch las manos en Apache FlinkApache Flink es un marco de código abierto popular para cálculos con estado sobre flujos de datos Le permite formular consultas que se evalúan continuamente casi en tiempo real frente a un flujo entrante de eventos Hubo un par de anuncios esta semana sobre este proyecto de código abierto Primero fue la noticia de que Amazon Kinesis Data Analytics para Apache Flink ahora es compatible con la versión de Apache Flink Esta nueva versión incluye mejoras en la semántica de procesamiento exactamente una vez de Flink los conectores Kinesis Data Streams y Kinesis Data Firehose las funciones definidas por el usuario de Python Flink SQL y más El lanzamiento también incluye una capacidad aportada por AWS un nuevo marco Async Sink que simplifica la creación de sumideros personalizados para entregar datos procesados Lea más sobre cómo contribuimos a este lanzamiento consultando la publicación Facilitando la creación de conectores con Apache Flink Presentando el sumidero asíncrono donde Zichen Liu Steffen Hausmann y Ahmed Hamdy hablan sobre una característica de Apache Flink Async Sinks y cómo funciona Async Sink cómo puede construir un nuevo receptor basado en Async Sink y analizan nuestros planes para continuar con nuestras contribuciones a Apache Flink Los clientes de Amazon EMR ahora pueden usar AWS Glue Data Catalog desde sus flujos de trabajo SQL por lotes y de transmisión en Flink El catálogo de datos de AWS Glue es un catálogo compatible con Apache Hive metastore Puede configurar sus trabajos de Flink en Amazon EMR para utilizar el catálogo de datos como un metaalmacén externo de Apache Hive Con esta versión puede ejecutar directamente consultas Flink SQL en las tablas almacenadas en el catálogo de datos Flink es compatible con el metastore de Hive en el clúster como catálogo persistente listo para usar Esto significa que los metadatos tenían que volver a crearse cuando se cerraban los clústeres y era difícil que varios clústeres compartieran la misma información de metadatos A partir de Amazon EMR sus trabajos de Flink en Amazon EMR pueden administrar los metadatos de Flink en AWS Glue Data Catalog Puede usar un catálogo de datos de Glue persistente y completamente administrado como un repositorio centralizado Cada catálogo de datos es una colección altamente escalable de tablas organizadas en bases de datos El catálogo de datos de AWS Glue proporciona un repositorio uniforme donde los sistemas dispares pueden almacenar y encontrar metadatos para realizar un seguimiento de los datos en los silos de datos Luego puede consultar los metadatos y transformar esos datos de manera consistente en una amplia variedad de aplicaciones Con soporte para AWS Glue Data Catalog puede usar Apache Flink en Amazon EMR para el procesamiento unificado BATCH y STREAM de Apache Hive Tables o metadatos de cualquier fuente de tabla Flink como Iceberg Kinesis o Kafka Puede especificar AWS Glue Data Catalog como metastore para Flink mediante la Consola de administración de AWS la CLI de AWS o la API de Amazon EMR Amazon EMRUn par de actualizaciones de Amazon EMR en Amazon EKS esta semana El controlador ACK para Amazon EMR en Elastic Kubernetes Service EKS pasóal estado de disponibilidad general Con el controlador ACK para EMR en EKS puede definir y administrar de forma declarativa EMR en recursos de EKS como clústeres virtuales y ejecuciones de trabajos como recursos personalizados de Kubernetes Esto le permite administrar estos recursos directamente usando herramientas nativas de Kubernetes como kubectl EMR en EKS es una opción de implementación para EMR que le permite ejecutar marcos de macrodatos de código abierto en clústeres de EKS Puede consolidar las cargas de trabajo analíticas con sus aplicaciones basadas en Kubernetes en el mismo clúster de Amazon EKS para mejorar la utilización de los recursos y simplificar la administración y las herramientas de la infraestructura ACK es una colección de definiciones de recursos personalizados CRD de Kubernetes y controladores personalizados que trabajan juntos para ampliar la API de Kubernetes y administrar los recursos de AWS en su nombre Después de eso tuvimos el anuncio de soporte para configurar las propiedades de Spark dentro de las sesiones de EMR Studio Jupyter Notebook para cargas de trabajo interactivas de Spark Amazon EMR en EKS permite a los clientes ejecutar de manera eficiente marcos de macrodatos de código abierto como Apache Spark en Amazon EKS Los clientes de Amazon EMR en EKS configuran y usan un punto de enlace administrado disponible en versión preliminar para ejecutar cargas de trabajo interactivas mediante entornos de desarrollo integrados IDE como EMR Studio Los ingenieros y científicos de datos utilizan las notebooks EMR Studio Jupyter con EMR en EKS para desarrollar visualizar y depurar aplicaciones escritas en Python PySpark o Scala Con esta versión los clientes ahora pueden personalizar su configuración de Spark como la CPU memoria del controlador y el ejecutor la cantidad de ejecutores y las dependencias del paquete dentro de su sesión de computadora portátil para manejar diferentes cargas de trabajo computacionales o diferentes cantidades de datos utilizando un único punto final administrado TrinoTrino es un motor de consulta SQL de código abierto que se utiliza para ejecutar análisis interactivos en los datos almacenados en Amazon S La semana pasada se anuncióque Amazon S mejora el rendimiento de las consultas que se ejecutan en Trino hasta veces cuando se usa Amazon S Select Con S Select “empuja hacia abajo el trabajo computacional para filtrar sus datos S en lugar de devolver el objeto completo Al usar Trino con S Select recupera solo un subconjunto de datos de un objeto lo que reduce la cantidad de datos devueltos y acelera el rendimiento de las consultas Con la contribución ascendente de AWS a Trino de código abierto puede usar Trino con S Select para mejorar el rendimiento de sus consultas S Select descarga el trabajo pesado de filtrar y acceder a los datos dentro de los objetos a Amazon S lo que reduce la cantidad de datos que debe transferir y procesar Trino Por ejemplo si tiene un lago de datos creado en Amazon S y usa Trino hoy puede usar la capacidad de filtrado de S Select para ejecutar consultas ad hoc interactivas rápida y fácilmente Puede explorar esto con más detalle al consultar esta publicación de blog Ejecute consultas hasta veces más rápido usando Trino con Amazon S Select en Amazon EMR donde Boni Bruno y Eric Henderson analizan los puntos de referencia de rendimiento en la versión de Trino con S Select mediante consultas de puntos de referencia similares a TPC DS a una escala de TB AWS AmplifyAmplify DataStore brinda a los desarrolladores de aplicaciones frontend la capacidad de crear aplicaciones en tiempo real con capacidades fuera de línea mediante el almacenamiento de datos en el dispositivo navegador web o dispositivo móvil y la sincronización automática de datos en la nube y entre dispositivos en una conexión a Internet Esta semana se lanzóel lanzamiento de claves primarias personalizadas también conocidas como identificadores personalizados para que Amplify DataStore brinde flexibilidad adicional para sus modelos de datos Puede profundizar más en esta actualización leyendo la publicación Nuevo anuncio de compatibilidad con clave principal personalizada para AWS Amplify DataStoreTuvimos otra publicación de Amplify DataStore que analiza una serie de otras mejoras con Amplify DataStore que se lanzaron esta semana que facilitan el trabajo con datos relacionales carga diferida predicados de consulta anidados y mejoras de tipo Para obtener más información sobre estas nuevas mejoras consulte NUEVO Predicados de consulta anidados y carga diferida para AWS Amplify DataStore hands on También se anuncióesta semana el lanzamiento de la versión de la biblioteca JavaScript de Amplify Esta versión estárepleta de funciones muy solicitadas además de mejoras internas para mejorar la estabilidad y la facilidad de uso de la biblioteca de JavaScript Consulte la publicación Anuncio de la versión de la biblioteca de JavaScript de AWS Amplify que contiene enlaces al repositorio de GitHub El equipo de Amplify ha estado muy ocupado ya que también anuncióuna vista previa para desarrolladores para expandir el soporte de Flutter a Web y Desktop para los casos de uso de API Analytics y Storage Los desarrolladores ahora pueden crear aplicaciones de Flutter multiplataforma con Amplify que apuntan a iOS Android Web y Desktop macOS Windows Linux usando una sola base de código En combinación con la vista previa de autenticación que se lanzóanteriormente los desarrolladores ahora pueden crear aplicaciones Flutter multiplataforma que incluyen API REST o API GraphQL para interactuar con datos de back end análisis para comprender el comportamiento del usuario y almacenamiento para guardar y recuperar archivos y medios Esta versión de vista previa para desarrolladores se escribiócompletamente en Dart lo que permite a los desarrolladores implementar sus aplicaciones en todas las plataformas de destino actualmente compatibles con Flutter Amplify Flutter estádiseñado para proporcionar a los desarrolladores un comportamiento coherente independientemente de la plataforma de destino Con estos conjuntos de funciones ahora disponibles en la Web y el escritorio los desarrolladores de Flutter pueden crear experiencias dirigidas a las plataformas que más les importan a sus clientes Consulte la publicación Anuncio de la compatibilidad con Flutter Web y escritorio para las bibliotecas de almacenamiento análisis y API de AWS Amplify para obtener más información sobre este lanzamiento y cómo Utilice la API GraphQL de AWS Amplify y las bibliotecas de almacenamiento mediante la creación de una aplicación de lista de compras con Flutter dirigida a iOS Android web y escritorio hands on Finalmente también anunciamos que AWS Amplify anuncia compatibilidad con las API de GraphQL sin la resolución de conflictos habilitada Con este lanzamiento es más fácil que nunca usar mutaciones y consultas personalizadas sin necesidad de administrar el protocolo de resolución de conflictos subyacente Todavía puede modelar sus datos con la misma interfaz gráfica fácil de usar Y también estamos trayendo pruebas de API de GraphQL mejoradas a Studio a través de la herramienta de código abierto GraphiQL Obtenga más información leyendo la publicación Anunciando nuevas características de la API de GraphQL en Amplify StudioContenido extraSe ha publicado mucho contenido de AWS Amplify esta semana asíque ¿por quéno echa un vistazo a algunas de estas publicaciones NUEVO Cree formularios React para cualquier API en minutos con AWS Amplify Studio no se requiere una cuenta de AWS analiza el generador de formularios Amplify Studio la nueva forma para construir componentes de formulario React para cualquier API hands on Texto a voz en Android usando AWS Amplify proporciona un buen ejemplo sobre cómo usar la categoría Predicciones para implementar texto a voz en una aplicación de Android hands on AWS ToolkitsAWS Toolkits for JetBrains y VS Code lanzaron una experiencia de iteración de código más rápida para desarrollar aplicaciones SAM de AWS Los kits de herramientas de AWS son complementos de código abierto para los IDE de JetBrains y VS Code que brindan una experiencia integrada para desarrollar aplicaciones sin servidor incluida la asistencia para comenzar y capacidades de depuración paso a paso locales para aplicaciones sin servidor Con el lanzamiento de hoy los kits de herramientas agregan las capacidades de sincronización Lambda de SAM CLI enviadas como SAM Accelerate vea el anuncio Estas nuevas características en los kits de herramientas para JetBrains y VS Code brindan a los clientes una mayor flexibilidad Los clientes pueden sincronizar toda su aplicación sin servidor es decir la infraestructura y el código o sincronizar solo los cambios de código y omitir las implementaciones de Cloudformation Obtenga más información en la publicación completa del blog Experiencia de iteración más rápida para aplicaciones SAM de AWS en los kits de herramientas de AWS para JetBrains y VS CodeGrafanaEsta semana se lanzóla nueva función de alertas de Amazon Managed Grafana que permite a los clientes obtener visibilidad de sus alertas de Prometheus Alertmanager desde su espacio de trabajo de Grafana Los clientes pueden continuar usando Grafana Alerting clásico en sus espacios de trabajo de Amazon Managed Grafana si esa experiencia se adapta mejor a sus necesidades Los clientes que utilizan Amazon Managed Service para espacios de trabajo de Prometheus para recopilar métricas de Prometheus utilizan las funciones Alert Manager y Ruler completamente administradas en el servicio para configurar reglas de alerta y registro Con esta función pueden visualizar todas sus reglas de alerta y grabación configuradas en su espacio de trabajo de Amazon Managed Service for Prometheus Lea más en la guía práctica Anunciando las reglas de Prometheus Alertmanager en Amazon Managed GrafanaTambién se anuncióla compatibilidad con Amazon Managed Grafana para conectarse a fuentes de datos dentro de una nube privada virtual de Amazon Amazon VPC Los clientes que usan Amazon Managed Grafana han estado solicitando asistencia para conectarse a fuentes de datos que residen en una VPC de Amazon y no son de acceso público Los datos en los clústeres de Amazon OpenSearch Service las instancias de Amazon RDS las fuentes de datos autohospedadas y otras cargas de trabajo sensibles a los datos a menudo solo son accesibles de forma privada Los clientes han expresado la necesidad de conectar Amazon Managed Grafana a estas fuentes de datos de forma segura mientras mantienen una sólida postura de seguridad Lea más sobre esto en la publicación Anuncio de la compatibilidad con fuentes de datos de VPC privadas para Amazon Managed GrafanaNodeJSAhora puede desarrollar funciones de AWS Lambda utilizando el tiempo de ejecución de Node js Esta versión estáen estado LTS activo y se considera lista para uso general Al crear o actualizar funciones especifique un valor de parámetro de tiempo de ejecución de nodejs x o use la imagen base del contenedor adecuada para usar este nuevo tiempo de ejecución Esta versión de tiempo de ejecución es compatible con funciones que se ejecutan en procesadores AWS Graviton basados ​​en Arm o procesadores basados ​​en x El uso de la opción de arquitectura de procesador Graviton le permite obtener hasta un más de rendimiento de precio Lea la publicación Node js x runtime now available in AWS Lambda para obtener más información sobre los principales cambios disponibles con Node js tiempo de ejecución en Lambda También debe consultar Por quéy cómo debe usar AWS SDK para JavaScript v en Node js como AWS SDK para JavaScript v se incluye de forma predeterminada en el tiempo de ejecución de AWS Lambda Node js MariaDBAmazon Relational Database Service Amazon RDS para MariaDB ahora es compatible con las versiones secundarias de MariaDB y Le recomendamos que actualice a las versiones secundarias más recientes para corregir las vulnerabilidades de seguridad conocidas en versiones anteriores de MariaDB y beneficiarse de las numerosas correcciones de errores mejoras de rendimiento y nuevas funciones agregadas por la comunidad de MariaDB PostgreSQLAmazon Relational Database Service Amazon RDS para PostgreSQL ahora es compatible con las versiones secundarias de PostgreSQL y Le recomendamos que actualice a la última versión secundaria para corregir las vulnerabilidades de seguridad conocidas en versiones anteriores de PostgreSQL y beneficiarse de las correcciones de errores las mejoras de rendimiento y la nueva funcionalidad agregada por la comunidad de PostgreSQL Consulte el anuncio de la comunidad de PostgreSQL para obtener más detalles sobre el lanzamiento Esta versión también incluye soporte para Amazon RDS Multi AZ con dos standby legibles y actualizaciones para las extensiones PostgreSQL compatibles existentes la extensión PostGIS se actualiza a la extensión pg partman se actualiza a y la extensión pgRouting se actualiza a Consulte la lista de extensiones admitidas en la Guía del usuario de Amazon RDS para conocer las versiones específicas Videos of the weekKubernetes and AWSSi se perdióesto vale la pena echarle un vistazo a la increíble discusión de Jay Pipes sobre el uso de Kubernetes por parte de AWS asícomo las contribuciones de AWS a la base de código de Kubernetes La entrevista fue grabada en KubeCon North America el mes pasado OpenSearchLos videos de OpenSearchCon que tuvieron lugar a principios de este año ya están disponibles Puede ver la lista completa aquí y hay una serie de excelentes sesiones que cubren una amplia gama de temas La que pasétiempo viendo fue esta sesión de OpenSearch Core Codebase Nicholas Knize OpenSearch maintainer Lucene Committer y miembro de PMC Si estáinteresado en contribuir con OpenSearch y tiene curiosidad por saber cómo comenzar esta sesión responderáalgunas de estas preguntas y más al levantar el capóy explorar la base del código Kubeflow and MLFlowÚnase a sus anfitriones Antje Barth y Chris Fregley ya que se les unen varios invitados para hablar sobre algunos grandes proyectos de código abierto como Kubeflow MLflow datamesh utils y data all Build on Open SourcePara aquellos que no están familiarizados con este programa Build on Open Source es donde repasamos este boletín y luego invitamos a invitados especiales a profundizar en su proyecto de código abierto Espere mucho código demostraciones y con suerte risas Hemos creado una lista de reproducción para que pueda acceder fácilmente a los siete episodios del programa Build on Open Source Construir en la lista de reproducción de código abierto Events for your diaryApache Hudi Meetup re InventNovember th December rd Las VegasApache Hudi es una tecnología de plataforma de datos que ayuda a construir lagos de datos confiables y escalables Hudi lleva el procesamiento de flujo a big data sobrecargando sus lagos de datos haciéndolos mucho más eficientes Hudi es ampliamente utilizado por muchas empresas como Uber Walmart Amazon com Robinhood GE Disney Hotstar Alibaba ByteDance que construyen lagos de datos transaccionales o de transmisión Hudi también viene prediseñado con Amazon EMR y estáintegrado con Amazon Athena AWS Glue y Amazon Redshift También estáintegrado en muchos otros proveedores de nube como la nube de Google y la nube de Alibaba Únase a la comunidad de Apache Hudi para una reunión organizada por Onehouse y la comunidad de Apache Hudi en el sitio de re Invent Aquíestán los diferentes horarios y ubicaciones hora local de Las Vegas Nov th pm pm NetworkingNov th pm pm Hudi Speaker TBA Nov th pm pm How Hudi supercharges your lake house architecture with streaming and historical data by Vinoth ChandarNov th pm pm Roadmap Speaker TBA Nov th pm pm Open floor for Q amp ASe llevaráa cabo en la sala de conferencias Chopin en el Hotel Encore re InventNovember th December rd Las Vegasre Invent estásucediendo toda esta semana y hay una gran cantidad de excelente contenido de código abierto para usted ya sean sesiones de trabajo charlas de tiza proveedores de código abierto en la exposición y más Volveremos a presentar proyectos de código abierto en Developer Lounge en AWS Modern Applications and Open Source Zone Hemos publicado un cronograma de los proyectos de código abierto que puede consultar asíque ¿por quéno echa un vistazo a La zona de código abierto y aplicaciones modernas de AWS aprenda juegue y relájese en AWS re Invent y ven Estaréallídurante una gran parte del tiempo los martes miércoles y jueves Si tiene una buena historia de código abierto que contar o algo de SWAG para intercambiar traerénuestras monedas del desafío Build On Open Source ¡asíque asegúrese de buscarme Eche un vistazo a esta forma práctica de ver todas las increíbles sesiones de código abierto luego consulte este panel de control es necesario registrarse Me encantaría saber cuáles te entusiasman asíque házmelo saber en los comentarios o a través de Twitter Si desea escuchar cuáles son mis tres sesiones principales debe verlas entonces esto es a lo que asistiría lamentablemente como empleado de AWS no puedo asistir a las sesiones OPN AWS Lambda Powertools Lecciones del camino hacia los millones de descargas Heitor Lessa brindaráuna sesión increíble sobre el viaje desde la idea hasta una de las herramientas de código abierto más queridas y utilizadas para los usuarios de AWS Lambda BOA Cuando la seguridad la seguridad y la urgencia importan Manejo de LogShell no puedo esperar a esta sesión de Abbey Fuller quien nos explicarácómo manejamos este incidente OPN Mantener abierto el marco de trabajo de AWS Amplify Matt Auerbach y Ashish Nanda compartirán detalles sobre cómo los gerentes de ingeniería de Amplify trabajan con la comunidad de OSS para crear software de código abierto OpenSearchEvery other Tuesday pm GMTEsta reunión regular es para cualquier persona interesada en OpenSearch y Open Distro Todos los niveles de habilidad son bienvenidos y cubren y dan la bienvenida a charlas sobre temas que incluyen búsqueda registro análisis de registros y visualización de datos Regístrese en la próxima sesión Reunión de la comunidad de OpenSearch Stay in touch with open source at AWSI hope this summary has been useful Remember to check out the Open Source homepage to keep up to date with all our activity in open source by following us on AWSOpen 2022-11-25 10:06:59
Apple AppleInsider - Frontpage News 35 best Apple Black Friday deals on Amazon: save up to $550 on AirPods, iPads, MacBooks, Apple Watch https://appleinsider.com/articles/22/11/24/28-best-apple-black-friday-deals-on-amazon?utm_medium=rss best Apple Black Friday deals on Amazon save up to on AirPods iPads MacBooks Apple WatchAmazon is pulling out all the stops with official Black Friday deals on numerous Apple devices with discounts up to off and prices as low as The e commerce giant has issued dozens of Black Friday discounts on Apple devices from AirPods Pro to off the TB inch MacBook Pro We rounded up our favorite offers below with options for stocking stuffers all the way up to high end Macs And be sure to check out the AppleInsider Apple Price Guide for hundreds of additional markdowns where CTO Macs are up to off and AppleCare discounts can be found at select retailers Read more 2022-11-25 10:52:09
ラズパイ Raspberry Pi Spotlight on primary computing education in our 2023 seminar series https://www.raspberrypi.org/blog/primary-computing-education-research-seminar-series-2023/ Spotlight on primary computing education in our seminar seriesWe are excited to announce our next free online seminars running monthly from January and focusing on primary school K teaching and learning of computing Our seminars having covered various topics in computing education over the last three years will now offer you a close look at current questions and research in primary computing The post Spotlight on primary computing education in our seminar series appeared first on Raspberry Pi 2022-11-25 10:59:54
海外TECH WIRED 78 Absolute Best Black Friday Deals Right Now (2022) https://www.wired.com/story/best-black-friday-deals-2022-1/ robot 2022-11-25 10:35:00
海外TECH WIRED 53 Best Amazon Deals For Black Friday (2022): iPads, Apple Watches, and More https://www.wired.com/story/best-amazon-black-friday-deals-2022/ amazon 2022-11-25 10:18:39
医療系 医療介護 CBnews 感染症拡大など有事でも地域の医療資源を有効活用-循環器病対策推進基本計画案、協議会で議論 https://www.cbnews.jp/news/entry/20221125194031 厚生労働省 2022-11-25 19:55:00
医療系 医療介護 CBnews 新型コロナワクチン接種の111件を認定-厚労省が健康被害審査部会の審議結果公表 https://www.cbnews.jp/news/entry/20221125185608 予防接種 2022-11-25 19:15:00
金融 金融庁ホームページ 「インパクト投資等に関する検討会」(第3回)議事次第を公表しました。 https://www.fsa.go.jp/singi/impact/siryou/20221125.html 次第 2022-11-25 11:30:00
金融 金融庁ホームページ 入札公告等を更新しました。 https://www.fsa.go.jp/choutatu/choutatu_j/nyusatu_menu.html 公告 2022-11-25 11:00:00
金融 金融庁ホームページ 職員を募集しています。(金融機関に対するモニタリング業務等に従事する職員) https://www.fsa.go.jp/common/recruit/r4/kantoku-13/kantoku-13.html 金融機関 2022-11-25 11:00:00
海外ニュース Japan Times latest articles Takayasu alone atop standings at Kyushu Grand Sumo Tournament https://www.japantimes.co.jp/sports/2022/11/25/sumo/basho-reports/takayasu-sole-lead-basho/ Takayasu alone atop standings at Kyushu Grand Sumo TournamentTop ranked maegashira Takayasu grabbed the outright lead at the Kyushu Grand Sumo Tournament on Friday with a helping hand from ozeki Takakeisho Takayasu defeated one of 2022-11-25 19:05:37
ニュース BBC News - Home World Cup 2022: Iran players sing national anthem before Wales game https://www.bbc.co.uk/sport/football/63753096?at_medium=RSS&at_campaign=KARANGA World Cup Iran players sing national anthem before Wales gameIran s players sing their national anthem before Friday s World Cup game against Wales after not doing so before their opener against England 2022-11-25 10:46:21
ニュース BBC News - Home MoJ 'inundated' by Dominic Raab complaints https://www.bbc.co.uk/news/uk-politics-63754206?at_medium=RSS&at_campaign=KARANGA dominic 2022-11-25 10:31:51
ニュース BBC News - Home Kanye West announces 2024 presidential bid https://www.bbc.co.uk/news/entertainment-arts-63754702?at_medium=RSS&at_campaign=KARANGA bidthe 2022-11-25 10:41:31
ニュース BBC News - Home World Cup 2022: VAR rules out Iran opener against Wales https://www.bbc.co.uk/sport/av/football/63754970?at_medium=RSS&at_campaign=KARANGA world 2022-11-25 10:45:08
ニュース BBC News - Home World Cup 2022: Wales v Iran - rate the players https://www.bbc.co.uk/sport/football/63754680?at_medium=RSS&at_campaign=KARANGA qatar 2022-11-25 10:19:55
ニュース BBC News - Home Wales fans at the World Cup: 'We couldn't miss this' https://www.bbc.co.uk/news/uk-wales-63754514?at_medium=RSS&at_campaign=KARANGA world 2022-11-25 10:15:20
北海道 北海道新聞 顧客情報507人分紛失 北海道労働金庫、帯広支店で https://www.hokkaido-np.co.jp/article/765674/ 個人情報 2022-11-25 19:01:00
IT 週刊アスキー NEOWIZのインディーゲーム8種がSteamで最大80%オフに! https://weekly.ascii.jp/elem/000/004/114/4114783/ neowiz 2022-11-25 19:15:00
海外TECH reddit 統一教会2世だけど質問ある? https://www.reddit.com/r/lowlevelaware/comments/z49tq9/統一教会2世だけど質問ある/ wlevelawarelinkcomments 2022-11-25 10:10:38

コメント

このブログの人気の投稿

投稿時間:2021-06-17 22:08:45 RSSフィード2021-06-17 22:00 分まとめ(2089件)

投稿時間:2021-06-20 02:06:12 RSSフィード2021-06-20 02:00 分まとめ(3871件)

投稿時間:2021-06-17 05:05:34 RSSフィード2021-06-17 05:00 分まとめ(1274件)